根据谷歌的原话是
We get a red, green, and blue filter behind every pixel just because of the way we shake the lens, so there's no more need to demosaic
我更倾向于解释为利用类似宾得手持超解析的技术使得 照片每个像素位置实现了RGB曝光而不需要解马赛克,这样每个像素的色彩信息都说完整的。
不过有技术媒体解释为三层RGB我也很好奇到底是怎么回事。
不过按照谷歌的说法 似乎他们并非像宾得那样进行4次对齐而是3次,这样不会多获得一个绿色通道的数据。相对来说分辨率提升会小一点
这样也符合 15次采样的方法总体来说实现5倍单一像素采样,这样提升了log2 5倍信噪比,给了谷歌吹追上佳能APSC的水平(佳能为啥谁都要踩我一脚)。 @恋霜之月 我今天爬起来把谷歌的原文又听了一遍感觉应该是我昨天理解的问题被人误导了。作者: 艾的民 时间: 2019-2-7 07:30
1L是cvpr18的paper,效果不错作者: 艾的民 时间: 2019-2-7 07:30
说到手持超解析,其实大家也都可以通过自己手机试试,连拍20张左右剔除掉抖动较大的部分,扔进PS里进行堆栈,也能提升分辨率。因为人的抖动也是有一定规律性的。404应该进行相应的像素区域的对齐来拓展了适用范围。否则着实不够看
当然谷歌吹的数字变焦应该基于另一种提升分辨率的方法,也就是移动小于一个像素,这样我们就可以通过抖动拓展像素,从而模拟了一个比现有cmos尺寸更大的虚拟cmos,获得了更高分辨率的图像,大家都知道图片分辨率越高细节越丰富,这样剪裁的时候一样可以获得更好的效果。所以谷歌也说了 放大小于1.2倍的时候SUPER RES是不生效的,因为这个时候抖动是没法拓展很多像素的。还不如原话均值硬怼15张