从他说话的方式就能看出来——Rishi Sunak对人工智能的好处感到非常兴奋。
今天,他谈到了它将带来的变革,“和工业革命一样深远”。
最新政治:总理表示,人工智能可以成为就业的“副驾驶”
但在宣扬“为更光明的未来做出长期决定”的讲台上,首相想要直面风险。
他表示,政府采取了“极不寻常的步骤”,公布了对人工智能风险的分析——包括对国家安全的风险。
来自科技初创企业、白厅和学术界的专家顾问团队准备了三份报告,为下周在布莱切利公园举行的人工智能安全峰会奠定了基础。
这是发人深省的阅读。
“厄运的自助餐,”一位政治记者打趣道。
揭露最大的威胁
这些报告详细说明了人工智能可能因蓄意滥用或纯属意外而带来的风险。
从网络犯罪分子,到更危险的病毒,再到经济崩溃——在最极端的情况下,一些未来的人工智能“失去控制”,这些人工智能在多项任务上比人类更有能力——最终可能摧毁社会。
首相宣布了一个新的人工智能安全研究所,该研究所将致力于评估目前可用的最强大的“前沿人工智能”模型(如OpenAI的ChatGPT、meta的Llama或b谷歌的PaLM2)以及即将取代它们的模型所带来的风险。
但在安全问题上,英国准备对科技公司采取多严厉的措施?
我问苏纳克,他是否会迫使科技公司将代码以及用于训练它们的数据交给它们的模型。
“在一个理想的世界里,你说的是对的,”他说。“这些都是我们需要与公司进行的对话。”
不完全是肯定的。

风险vs回报是人工智能困境的核心
苏纳克措辞谨慎,因为他的峰会也是鼓励大型科技公司希望在英国开展业务。
它旨在建立一个不阻碍投资或创新的监管环境。
还有另一个原因。
在处理指数级增长的技术领域的“潜在风险”时,很难知道你实际监管的是什么。
还有一个事实是,大型科技公司是跨国公司,如果其他地方不适用同样的规则,那么在这里制定一套规则可能毫无意义。
许多人对此次峰会的最大期望是,这是一次提升知名度的活动。谈话的开始。
但人工智能领域的一些人士表示,现在可以划定某些红线。
例如,禁止追求能够完成多项任务并在每项任务上都优于人类的通用人工智能(AGI)模型。
原则上,现在就可以制定规则,防止未来能够控制世界上大多数工业机器人的人工智能模型与主导我们办公软件或驾驶我们汽车的人工智能对话。
科技公司毫不掩饰想要开发AGI。他们还表示,他们希望确保自己的安全,并愿意接受监管。
阅读更多:
我们请ChatGPT预测总理的演讲
但下周,苏纳克(Rishi Sunak)将在技术上走钢丝——鼓励开发最好的人工智能(最好是在英国),而不是让自己看起来像一个想要过度监管的人,从而扼杀这种潜力。
在人工智能安全峰会上,我们可能会更好地了解最大的威胁是什么,以及我们可以选择哪些方法来避免这些威胁,以确保实现人工智能的真正好处。
但如果你期待看到任何长期的决定,为更光明的未来,不要屏住呼吸。
点击分享到









