在最近的深度采访中,苹果高管们谈到了iphone 13系列的新电影模式。

苹果公司全球产品营销副总裁Kaiann Drance和人机界面团队设计师Johnnie Manzari与TechCrunch谈论了电影模式以及公司如何在没有明确目标的情况下运行这个想法。

Johnnie Manzari表示:“我们没有一个关于该功能的想法,我们只是好奇电影制作,这就导致了这条有趣的道路,然后我们开始学习更多的东西,并与整个公司的人进行更多的交流,以帮助我们解决这些问题。”

Kaiann Drance表示,该功能在很大程度上依赖于苹果新的A15仿生芯片和神经引擎。为视频带来高质量的深度,比照片要难得多。与照片不同,视频被设计为随着拍摄者的移动而移动,包括手的抖动,这意味着苹果将需要更高质量的深度数据,以便电影模式可以跨主体、人、宠物和物体工作,而且苹果需要这种深度数据不断地跟上每一帧。实时渲染这些自动对焦的变化是一个沉重的计算工作负荷。

在开始研究电影模式之前,苹果团队花时间研究电影摄影技术,以了解更多关于焦点转换和其他光学特性。该团队一开始就对图像和电影制作的历史有着深深的敬畏和尊重。当他们开发"Portrait Lightning"概念时,苹果设计团队研究了安迪-沃霍尔等经典肖像艺术家和伦勃朗等画家。

电影模式的开发过程也是如此,团队与世界上一些最好的电影摄影师和摄像师进行了交流。然后他们继续与摄影指导、摄像师和其他电影制作专业人士合作。当然,苹果设计师意识到,这些技术需要高水平的技能,不是一般iPhone用户可以轻易做到的。

这就是苹果公司的作用。该公司解决了技术问题,并通过凝视检测等修复手段解决了问题。有些问题是通过机器学习解决的,这就是为什么该模式在很大程度上依赖于iPhone内置的神经引擎。这种类型的功能开发代表了苹果所能提供最好的东西。

1.《苹果高管谈iPhone 13电影模式以及背后研发故事》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。

2.《苹果高管谈iPhone 13电影模式以及背后研发故事》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。

3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/guonei/1960881.html