Статья немного занудливо написана, но тема и некоторые результаты сильно впечатляют. На первый взгляд тема не нова: как модифицировать изображение так, чтобы компьютерное зрение сильно ошиблось в его классификации? Таких способов придумано немало, некоторые весьма эффективны — но на этот раз исследователи все время задавались вопросом — а как модифицировать картинку так, чтобы и люди ошиблись, а не только искусственные нейронные сети.
И, конечно, такие фальшивки научили генерить именно нейтронную сеть. Авторы прекрасно осознают с каким огнём играют. В конце они четко формулируют вывод: можно научить сетку эффективно манипулировать тонкими аспектами человеческого восприятия, а не только компьютерным классификатором. И приводят пример: можно незаметно для зрителя исказить лицо человека так, что он останется узнаваем — вот только станет вызывать недоверие. Ну или другую эмоцию.
Очень перспективное направление, если немного напрячь фантазию. Как минимум, оно предостерегает нас от очередной ловушки ложной гордости: мол машину-то обмануть легко, а нас с нашим богатством жизненного опыта и пониманием контекста, какая-то там нейронная сеть не обманет. Не обольщайтесь — и нас обманет как миленьких, было бы лишь такое желание у тех, кто эту сеть обучает.
https://spectrum.ieee.org/the-human-os/robotics/artificial-intelligence/hacking-the-brain-with-adversarial-images
Источник: https://t.me/techsparks/1151