未来iPhone可能会在图像传感器上对视频进行预处理

来源:cnBeta #iPhone# #传感器#
6834

苹果正在研究如何减少iPhone或其他设备对图像传感器本身的处理量,以便制作高质量的视频,目的是节省文件大小和电池电量。目前,iPhone、iPad或任何其他设备的摄像头都有一个图像传感器,它能记录所有接收到的光线。然后,这些视频数据被传递给一个处理器,由它来创建图像。但这种在主设备CPU上的处理会很密集,并使设备的电池很快耗尽。

苹果一项名为"用事件摄像机生成静态图像"的美国专利申请显示,苹果提出只处理视频图像中自上一帧以来发生变化的部分。传统相机使用时钟图像传感器来获取场景中的视觉信息,记录的每一帧数据通常会以某种方式进行后处理,在许多传统相机中,每一帧数据都携带了所有像素的信息,通常会导致冗余,并且随着场景中动态内容数量增加,冗余度通常会增加,随着图像传感器利用更高的空间和/或时间分辨率,一帧中包含的数据量很可能会增加。换句话说,随着iPhone相机分辨率越来越高,以及人们使用它们记录更长的视频,正在处理的数据量也会上升。

具有更多数据的帧通常需要额外的硬件与电量,这往往会增加复杂性,成本和/或功耗。当在电池供电的移动设备上进行后处理时,具有更多数据的后处理帧通常会更快地消耗移动设备的电池。苹果这项专利描述了 一个事件相机指示单个像素变化 的方法,它不是捕捉所有的东西,相机输出的数据响应检测其视场的变化。通常情况下,当图像被处理并制作成JPEG或类似格式时,没有变化的像素会被丢弃,这样可以使文件大小变小。在苹果的提案中,这些像素甚至不会到达处理器。

苹果表示,没有记录其强度变化的像素不会产生任何数据。因此,对应于静态物体(例如,不移动的物体)的像素不会触发像素事件传感器的输出,而对应于可变物体(例如,移动的物体)的像素会触发像素事件传感器的输出。

责编:
来源:cnBeta #iPhone# #传感器#
THE END
关闭
加载

PDF 加载中...