苹果发布语言模型相关论文Siri未来也许能看懂屏幕了
【#苹果发布语言模型相关论文##Siri未来也许能看懂屏幕了#】苹果近日发布的一篇语言模型相关的论文,预示了未来的Siri可能拥有读懂屏幕的能力,这意味着苹果终端设备更智能的交互能力。4月2日消息,苹果研究团队发表了一篇名为《ReALM: Reference Resolution As Language Modeling》的论文,主题在于解决非对话实体(non-conversational entities)中的指代消解(Reference resolution)问题。
文章摘要指出,虽然大语言模型被证明在许多任务处理中表现强大,但在屏幕实体、后台实体等非对话实体中的指代理解能力,还没有得到充分的开发利用。其中,“对话实体”指的是在对话过程中出现的具体对象或概念,可以是任何提及并被讨论的事物,例如人名、地点、事件、产品、观点等;“屏幕实体”指的是用户在电子设备屏幕上可以看到的各种元素,例如文本、图标、按钮、图片、视频等;“后台实体”通常指的是在电子设备的操作系统或应用程序中运行的、对用户不可见的进程和服务。
这篇文章主要展示了,如何利用大语言模型建立能够解析各种类型指代(尤其是非对话实体)的高效系统。团队的方法是将其转化为一个纯粹的语言建模问题,具体而言,ReALM(该模型的名称)通过已经解析的实体及其位置来重建屏幕,生成一个可视觉识别的文本,并通过对屏幕中的实体进行标注,使其具备出现所在位置的上下文,这就使得系统能够理解用户在屏幕上看到的内容。(界面新闻)
发布于:北京
相关推荐
苹果发布语言模型相关论文Siri未来也许能看懂屏幕了
苹果研究员称其设备端模型强于GPT4,Siri将大幅提升智能程度
苹果或推AI手机?论文显示其正研究放弃“嘿Siri”,转而使用AI大模型
苹果放大招:新设备端模型超过GPT-4,有望拯救Siri
苹果这篇“魔改”闪存的论文,暴露了它的大模型野心
苹果取得技术突破:可在 iPhone 上运行大型语言模型
史诗级强化真要来了,苹果发布Siri专用AI模型ReALM
苹果AI技术新突破:Siri可识别热门单词和多语种说话者
苹果研究人员探索免唤醒词呼叫Siri
iPhone在中国销量大跌,苹果还能翻盘么?
网址: 苹果发布语言模型相关论文Siri未来也许能看懂屏幕了 http://www.xishuta.com/newsview114047.html
推荐科技快讯

- 1问界商标转让释放信号:赛力斯 95597
- 2报告:抖音海外版下载量突破1 24692
- 3人类唯一的出路:变成人工智能 24210
- 4人类唯一的出路: 变成人工智 23645
- 5移动办公如何高效?谷歌研究了 23333
- 6滴滴出行被投诉价格操纵,网约 11062
- 72023年起,银行存取款迎来 10633
- 8五一来了,大数据杀熟又想来, 9650
- 9网传比亚迪一员工泄露华为机密 8944
- 10“涉黄”擦边新闻不断,上门按 8894