Пользователь американского форума Reddit c ником ibreakphotos провел расследование, которое тянет на сенсацию. Он на наглядном примере показал, что технология Space Zoom, реализованная во флагманах Samsung и применяющаяся в том числе для съемки Луны (а что это за флагман, который не может нормально сфотографировать Луну?), опирается не столько на возможности оптической системы и сенсоров смартфона, сколько на алгоритмы искусственного интеллекта.



Сам по себе эксперимент довольно прост. Пользователь скачал из интернета качественное изображение Луны, потом уменьшил его до размера 170 х 170 пикселей и размыл, «убив» тем самым всю детализацию. После этого он увеличил снимок изображения в четыре раза, выключил в комнате свет, имитируя тем самым ночь, вывел картинку на свой монитор и сфотографировал такую искусственную Луну – естественно, задействовав при этом технологию Space Zoom. А дальше… следует сравнение двух снимков: до и после.

Видно, что на изображении со смартфона (справа) появились детали, которых нет и не могло быть на исходной картинке (слева). Откуда же они взялись?

ibreakphotos полагает, что при съемке Луны телефон проводит обработку изображения при помощи алгоритмов искусственного интеллекта. Проще говоря, Samsung натренировала нейросеть на сотнях (если не тысячах) снимков Луны, и теперь результаты работы ИИ добавляются ко всем фото естественного спутника. В итоге на снимках появляются детали (например, кратеры) – которые телефон или не может заснять в принципе, или не может заснять в хорошем качестве.

Естественно, результаты теста вызвали шквал критики в адрес Samsung. Возможно, ее было бы меньше, если бы компания не рекламировала как Space Zoom, так и с съемку Луны с ее помощью, но именно это преподносилось как выдающаяся особенность камеры Galaxy S23 даже на предрелизных тизерах.

©