在拥挤的地铁里,你无需开口,只需细微的嘴唇动作,就能控制耳机切歌、接听电话甚至与AI助手对话——这样的场景或许即将成为现实。
苹果于2026年1月29日证实完成对以色列AI初创公司Q.ai的收购。这笔交易被多位知情人士透露金额高达约20亿美元。
这是苹果自2014年以30亿美元收购Beats以来,规模第二大的收购案。
收购详情
尽管苹果未披露交易金额,但《金融时报》等多家权威媒体报道称,这笔交易价值约20亿美元。
此次收购正值苹果发布其2026财年Q1季报之时,其营收达1438亿美元,同比增长16%,iPhone营收创下852亿美元的历史新高。
苹果硬件技术高级副总裁Johny Srouji表示:“我们非常高兴能收购这家公司,并由Aviad Maizels领导。”
创始人回归
Q.ai创始人Aviad Maizels与苹果有着深厚渊源。早在2013年就将自己创立的PrimeSense公司出售给了苹果。PrimeSense开发的3D传感技术后来成为iPhone Face ID功能的核心基础,此后Maizels留在苹果担任硬件与技术部门高级总监。
2022年,他离开苹果创立了Q.ai。如今,随着Q.ai被收购,Maizels又重返苹果。
Q.ai技术解析
Q.ai专注于开发基于机器学习的音频AI技术,特别擅长解读低语音和“无声语音”。该技术结合了音频处理和图像分析,能够读取面部微表情和肌肉运动。Q.ai申请的专利显示,其技术可检测“面部皮肤微动”来解读口型、识别个体并评估情绪状态。
与当前AI领域热门的生成式AI不同,Q.ai的技术属于新型人机交互技术范畴。它能在复杂环境下增强音频质量,理解无声交流,并将这些信息转化为具体输入或控制指令。
战略意图
苹果此次收购的核心目的,是为下一代可穿戴设备寻找更自然的交互方式。Q.ai的无声语音识别技术直击了当前语音助手的核心痛点——隐私与场景限制。这项技术被认为有望集成到未来的AirPods、iPhone乃至传闻中的AI眼镜中。
分析人士指出,Q.ai的技术对于苹果智能眼镜可能尤为重要,毕竟用户未必愿意在公开场合与设备对话,又被旁人听到。
通过无声交互,用户只需做口型就能控制设备,既保护隐私又优雅自然,该技术还可能应用于开发传说中的屏下Face ID,通过高精度肌肉识别减少零件数量,实现屏下隐藏效果。
行业竞争格局
主要科技公司纷纷布局多模态AI交互界面。Meta的Ray-Ban智能眼镜和谷歌即将推出的AR产品在可穿戴AI领域构成直接竞争。
值得注意的是,OpenAI在苹果前设计总监Jony Ive的带领下,计划于2026年底推出首款音频AI产品,直接与AirPods竞争。
与此同时,苹果正与谷歌就人工智能技术合作展开洽谈,计划采用谷歌Gemini模型作为2026年新版Siri语音助手的技术支撑。
AI竞争正从纯模型能力转向“模型+硬件+交互”的整合体验。
产品整合前景
业内人士预计,Q.ai的技术将在12~24个月内应用于苹果产品,并可能在2026年全球开发者大会或后续活动中首次亮相。
苹果计划在多个产品线整合这项技术:
耳机产品中,AirPods已逐步导入AI功能,如实时翻译与智能降噪,Q.ai的技术有望促进AirPods的AI功能升级;
智能眼镜,苹果正在开发的智能眼镜内部代号为“Project Atlas”,预计最快于2026年底发布;
苹果还在研发一款酷似AirTag大小的穿戴式AI挂件,配有摄像头和麦克风,可以挂在胸前或固定在衣服上,作为Siri的物理载体,这款设备旨在解决Vision Pro太重、iPhone掏出太慢的问题,通过全天候开启的摄像头,像“数字副脑”一样观察用户的生活轨迹。
结语
耳朵和面部正成为科技巨头们争夺的下一个交互入口,比手机屏幕更贴身,使用时间更长。
当苹果不满足于在云端大模型上追赶对手,而是通过独特的传感器技术与硬件集成,试图打造竞争对手难以复制的交互护城河时,它真正瞄准的是下一个十年的设备该如何与我们“交谈”,或者说,如何“察言观色”。
※ 图文内容源自网络。