如果小雷说,有一个手机厂商上了微博热搜,大伙估计不会感到意外。
毕竟现在的手机厂商都比较出名,国内的华米OV只要发布旗舰新机,那几天的机圈必然是腥风血雨,各家粉丝吵得不可开交。
换个角度来看,这代表着手机备受关注,做手机最怕的就是产品无人问津。
但你猜怎么着,今天早上真有一个国内市场没啥声量的手机厂商,上了热搜前十...
它,就是人称韩国小魅族的“星星星”。
图源:微博
三星这品牌是有点特别的,它全球销量常年第一,果子哥都得被压一头。
但来到国内,三星就完全支棱不起来,手机销量、市场份额和粉丝声量,都被华米OV遥遥领先。
连前阵子三星S23系列发布,咱们编辑部都没人愿意去关注。
人家魅族好歹投票没输过呢,反观三星是既不叫好,又不叫卖,国内小众又冷门。
图源:腾讯新闻
正因如此,小雷才特别好奇,三星这次的事儿得闹多大,才能引起机圈热议。
我看了一下,网友们围绕三星手机讨论的,是它的拍摄造假行为。
三星被打假,谁对谁错?
小雷顺着网线,找到了网友吐槽三星的原帖。
只能说这位老哥是有备而来的,他先抛出论点,表示三星手机用【太空变焦】拍出来的月亮图片,都是假的。
图源:Reddit
原因无它,就是成片里的月亮实在太完美,完全超出了手机所能拍摄到的范围。
哪怕是搭载潜望镜头的手机,也不能拍得跟天文望远镜一样清晰吧?
而且,在三星手机变焦拍月亮的过程中,会有一个明显的画质变化。
月亮本来还是一大坨白色,忽然间手机像是有了魔法,把光线压了下来,并完整呈现出一个纹理分明的月球表面。
该网友表示,这显然不符合正常的物理逻辑,多少带点算法“优化”。
图源:MKBHD
但光靠这俩例子,还不足以证实三星那唬人的“太空变焦”造假。
于是乎,一个简单又有效的佐证试验来了。
这位老哥先从网上下载了一个月球高分辨率图片,大概是用专业天文望远镜拍摄的。
图源:Reddit
接着重点来啦。
老哥把这张高清图片压缩成170 * 170分辨率,为了防止被AI恢复,还在此基础上套一个高斯模糊图层。
图源:Reddit
当然啦,为了让咱们看得清楚点,方便作后面的对比,它还制作了一个放大4倍的版本。
严谨,还真就内个严谨。
图源:imgur.com
关键操作来了,他现在要做的,是把那张经过压缩处理的月球模糊图,放到显示器里全屏展示。
接着关闭房间所有灯光,用三星手机对着屏幕,放大100倍拍照。
接下来,就是见证奇迹的时刻!
只见原本分辨率极低,还带着高斯模糊的月球图片,在三星的“太空变焦”算法加持下,逐渐变得清晰可见。
犹如近视患者刚做完激光手术,整个世界都通透了起来。
图源:imgur.com
为了方便大伙对比,小雷把两张月球图拼在一起。
左边是经过该网友高度压缩+高斯模糊的月球图,右边是三星拍摄该图片,经过算法优化的成片。
能看出两张图的月球纹理完全一致,三星也并非瞎P细节。
三星:“我特意给月球添加了完整的细节纹理,这样你才知道,看得是清晰的月亮。”
看到这儿,其实整件事的真相已经出来了。
三星能把一张模糊的月球图,拍得细节满满,就是用算法给月亮补了细节。
这波操作,相当于人类给手机挖了个坑,算法知道这是月球,但它不知道啥时候应该AI补细节,啥时候应该保留原汁原味。
导致一张原本就模糊的图片,被三星强行优化成无码高清图。
好比把一位男生的照片,强行P成女生的样子,改变客观事实,这肯定不对。
由于整个帖子的论点和论据要素齐全,信服力拉满,很快就引起了广大网友的调侃,从海外火到国内。
大伙纷纷调侃,NASA要是把三星手机发射到太空,让它来拍月亮,不比詹姆斯韦伯望远镜好使?
图源:Youtube
当然啦,给月亮做AI算法优化这种事,不仅仅是三星在做。
很多手机厂商都推出了【月亮模式】功能,能让消费者拍出很清晰的月球照片。
各家的原理也大致相同,比如三星是用100张高清月球图像来进行AI训练。
接着用【场景优化器】来识别月球,并填充对应的细节,比如陨石坑和纹理啥的。
之所以能做到,AI月亮和天文望远镜看到的月亮纹理接近。
是因为月球被潮汐锁定了,它永远都是同一面对着地球,咱们看到的月亮,基本只有光影的区别。
图源:星球研究所
在这种固定的场景里,算法是最不容易出错的。
换个角度来说,三星用AI算法补出来的月亮,还真就和原版长一个样。
只是在营销上,三星确实翻车了,当时三星还吹的是“利用多帧合成来增加月球细节”,实际上背后还是人工智能在干活。
咱也不得不承认,在手机计算摄影时代,通过人工智能算法,来增强手机拍照的画质,已经是行业通用的做法了。
图源:Google
但怎么说呢,网友们在计算摄影的讨论上,还搞得挺激烈的。
有人说,如果照片是用AI补的细节,那就不是照片了。
也有人说,大多数手机用户只希望能拍得清楚,而并非拍得真实。
那什么才叫正确的计算摄影?
这里先说结论,小雷认为,手机和相机有着明显的光学差距,用计算摄影来提高成像画质是正确的方向。
只要不要算歪来,那就是一张成功的“计算摄影”照片。
如果有看过三星手机超长焦样片的小伙伴,肯定会对它那30倍,乃至100倍的成像清晰度感到惊讶。
说真的,相机得装个焦距足够远的长焦镜头,才能拍成这效果。
而如今在计算摄影的加持下,手机已经能做到超长焦场景下,保持不错的画质了。
图源:Youtube
而在计算摄影这一块,咱们国内的华米OV,都做得比较到位。
vivo X90 Pro+虽然是3.5X长焦镜头,但通过光学超分算法,让10倍的照片也能得到很好的画质。
图源:vivo
其他厂商,华为有XMAGE,谷歌最新的Pixel 7 Pro有30X超分算法。
属于是各有各的大杀招了。
图源:Google
小雷也不云评测了,刚好手里有一台Google Pixel 7 Pro和一台小米12S Ultra。
咱们就来比比,这俩旗舰影像手机的长焦端算法,孰优孰劣。
直接从极限夜景拷打,因为谷歌从10倍才开始触发超分算法,所以咱们直接对比两个机型的10倍表现。
从实际成像来看,无论是纯净度,还是楼栋中间的“粤海”字眼,都是谷歌表现更好。
图源:自制
再来一张30倍的夜景灯牌图。
其实不难发现啊,谷歌这里已经触发了AI“补字”算法了。
那清晰的字体纹理,完全不是手机长焦30倍能拍出来的,还把中英文都还原到位了。
既然没出现事实性错误,又比小米清晰,这个场景自然是谷歌的再次胜利。
图源:自制
但是,小雷要说但是喽。
既然是算法,肯定会有翻车的时候,毕竟咱们拍摄的场景可太复杂了。
算法并不能像拍月球那样,每次都把场景准确还原出来。
比如这张由vivo X90 Pro+拍摄出来的照片,能看出明显的AI补字痕迹。
字体纹理是很清晰,咱们却完全看不出是啥字。
图源:酷安
接着网友又用第三方相机App拍了一张,无AI算法介入的图,这次反而能看清楚文字了。
糊是糊了点,但在这种情况下,符合客观事实,远比看得清晰更重要。
图源:酷安
看到这儿,相信大伙都能Get到小雷前面的结论了。
如果计算摄影,能让当时的场景变得更加清晰,且不出现事实性错误,那肯定是个好东西啊。
但要是算都算歪来,把正确的字涂抹成一坨,那...还不如不算。
当然,以上只是小雷对计算摄影极其浅显的拙见和讨论。
大伙有啥想法,都可以在评论区和小雷交流。
版权声明:内容来源于互联网和用户投稿 如有侵权请联系删除