2016-12-08
【智网文摘】2025年对人工智能的期望
2025-01-04
20250104
来自古巴辩论网(Cubadebate)科技专栏的报道:
原文参见: http://www.cubadebate.cu/especiales/2024/12/29/que-se-espera-de-la-inteligencia-artificial-en-2025/
人工智能(AI)正在科技史上留下划时代的印记,而2025年将带来更多惊喜。
尽管难以准确预测未来,但可以确定一些趋势和挑战,这些将定义人工智能在来年的发展方向。其中,“人马医生”或“人马教师”的挑战是人工智能开发领域的重要关键。
基于人工智能的科学爆发
人工智能已经成为应对重大科学挑战的基本工具。诸如健康、天文学和太空探索、神经科学或气候变化等领域将从中受益更多。
AlphaFold(2024年因其成就获诺贝尔奖)已确定了2亿种蛋白质的三维结构,几乎涵盖了已知的所有蛋白质。其发展是分子生物学和医学领域的一项重大进步。这促进了新药物和治疗方法的设计,2025年将是这一技术(顺便说一下,它是开放访问的)全面应用的关键时刻。
同时,ClimateNet使用人工神经网络对大量气候数据进行精确的空间和时间分析,对于理解和缓解全球变暖至关重要。
2025年,ClimateNet的使用将成为预测极端气候事件更准确的重要工具。
医疗诊断与审判:人工智能的角色
司法与医疗诊断被视为高风险场景。在这些领域,比其他任何领域都更需要建立系统,以确保最终决策始终由人类作出。人工智能领域的专家正努力确保用户信任,系统具有透明性,能够保护个人利益,并将人类置于决策的核心位置。
这便引出了“人马医生”的挑战。人马模型是人类与算法的混合模式,结合了机器的形式分析能力与人类的直觉判断。“人马医生 + 人工智能系统”的组合能够改善单纯由人类或人工智能分别作出的决策。
医生将永远是按下接受按钮的人,而法官将始终是决定判决是否公正的人。
人工智能将为我们做出决策
基于语言模型的自主人工智能代理是2025年大型科技公司(如OpenAI的ChatGPT、Meta的LLaMA、Google的Gemini以及Anthropic的Claude)追求的目标。迄今为止,这些人工智能系统仅提供建议。而在2025年,人们希望它们能够直接为我们做出决策。
人工智能代理将在低风险任务中执行个性化且精准的操作,始终根据用户的需求和偏好。例如:购买车票、更新日历、推荐并完成特定购买。此外,它们还可以帮助我们回复电子邮件,这是一项日常耗时的任务。
基于这一方向,OpenAI推出了AgentGPT,而Google推出了Gemini 2.0平台,用于开发自主人工智能代理。与此同时,Anthropic推出了两种更新版本的语言模型Claude:Haiku和Sonnet。
人工智能使用我们的电脑
Sonnet能够像人类一样使用电脑。这意味着它可以移动光标、点击按钮、输入文本以及浏览屏幕。它还可以自动化桌面操作。用户可以授权Claude访问并控制个人电脑的某些方面,就像人类自己操作一样。这种被称为“计算机使用”的功能可能彻底改变我们自动化和处理日常任务的方式。
在电子商务领域,自主人工智能代理可以为用户完成购买。它们还能在商业决策中提供建议,自动管理库存,与各种供应商(包括物流供应商)合作,优化补货流程,更新运输状态,甚至生成发票等。
在教育领域,人工智能代理能够为学生个性化制定学习计划,识别改进领域,并推荐合适的学习资源。我们将迈向“人马教师”的概念,人工智能代理将协助教育工作。
批准按钮
自主代理的概念引发了关于“人类自主性与控制”的深刻问题。“自主性”究竟意味着什么?
这些人工智能代理将引入预先批准的需求。我们需要决定允许这些实体在没有直接批准(没有人类控制)的情况下做出哪些决策。我们面临一个关键的两难问题:在使用自主人工智能代理时,何时选择“自动化”以及何时需要人为决策,即依赖“人类控制”或“人类与人工智能的交互”。
预先批准的概念将在自主人工智能代理的使用中变得至关重要。
进入手机的“小型ChatGPT”
2025年将成为小型开源语言模型(SLM,Small Language Models)扩展的一年。
这些语言模型未来可以安装在移动设备中,能够通过更加个性化和智能化的语音方式控制手机,比现有的Siri等助手更强大,还可以帮助我们回复电子邮件。
SLM体积小且效率高,不需要大型服务器支持。这些开源解决方案可以针对具体应用场景进行训练。它们更加注重用户隐私,适用于低成本电脑和手机。在教育领域,SLM的社会优势显而易见,它能够帮助改善落后地区的教育使用,尤其是在缺乏资源的地区。它们还能推动专注于健康的SLM在资源有限的地区提供诊断和建议支持。
人工智能在欧洲的监管进展
2024年6月13日,欧洲人工智能监管条例获得批准,并将在两年内生效。2025年,将制定评估标准和规范,包括ISO和IEEE标准。
例如,2020年欧盟委员会发布的《可信人工智能评估清单》(Altai)列出了七项要求:人类代理与监督、技术稳健性与安全性、数据治理与隐私、透明性、多样性与公平性、社会与环境福祉以及责任。这些要求构成了未来欧洲规范的基础。
规范的制定对于人工智能系统的审计至关重要。例如:如果一辆自动驾驶汽车发生事故,谁将承担责任?法规框架将处理此类问题。
治理机制
在2024年10月的论文《爱的机器与优雅》(Machines of Loving Grace)中,Anthropic CEO Dario Amodei提出了大科技公司对未来的愿景:“拥有一个真正鼓舞人心的未来愿景至关重要,而不仅仅是灭火计划。”
对此,也有更多批判性的观点,例如尤瓦尔·赫拉利在其书《Nexus》中讨论的观点。因此,我们需要监管以提供必要的平衡,从而推动可信且负责任的人工智能发展,正如Amodei所强调的,为全人类应对重大挑战。
同时,必须具备必要的治理机制,作为“灭火计划”。
编辑:王一茗
校对:王 涵
本文使用DeepL辅助翻译,内容服务于中拉科技互鉴,不代表平台观点,如有疏漏,欢迎指正。