- 我们应该开发最终可以取代我们的人工大脑吗? 我们是否应该冒险失去对我们文明的控制?
这些是 1,100 多名技术人员和 AI 专家签署的公开信中提出的一些严峻问题。 这尤其适用于苹果公司的联合创始人史蒂夫沃兹尼亚克和当时创立了 OpenAI 公司的埃隆马斯克。
联署方担心先进人工智能的快速发展可能对社会和人类造成严重后果。
因此,他们现在要求立即暂停开发新的强大人工智能,至少六个月。 根据这封信,休息时间应该用来制定我们未来如何安全开发和使用人工智能的指南。
- 我认为这封信反映了一种表达的愿望; 哥本哈根大学计算机科学与哲学教授安德斯·索加德 (Anders Søgaard) 说:“现在它发展得非常快,我们不应该在我们如此迅速地向前发展之前为人工智能制定规则吗?”
他还没有亲自签署这封信,但正在考虑这样做。
丹麦联署关注
然而,在签署这封信的众多专家中,有一位丹麦人。 是哥本哈根大学计算机科学系和奥尔堡大学计算机科学系的副教授 Hans Hüttel。
他之所以在这封信上签名,是因为他特别关注一些人对人工智能过于坚定的信仰。
ChatGPT 等聊天机器人中的人工智能在回答用户问题时看起来非常人性化。 根据 Hans Hüttel 的说法,这是一个问题。 因为尽管有人类的答案,但机器人也因能够提出与事实不符的答案而受到批评。
ChatGPT 已得到改进——但如何改进?
去年,推出了 ChatGPT - 由 OpenAI 公司开发的在线聊天程序。 每个人都可以访问的聊天机器人旨在回答用户关于广泛主题的问题。
这个月,ChatGPT-4 上线了,现在应该改进人工智能了。 我们询问了 ChatGPT-4,它认为它和它的前身有什么区别。 以下是一些要点:
我可以更有效地理解和处理信息,并且能够更好地生成连贯和详细的响应。
我接受了更大、更多样化的数据集的训练,这让我有了更广泛的知识基础,更好地理解了不同的主题和背景。
我理解和理解谈话内容的能力有所提高。 与以前的模型相比,这有助于我提供更相关、更准确的答案。
请注意,我仍然是一个 AI,并且可能有局限性。
- 这些程序令人印象深刻的是,它们的答案通常是经过精心设计的。 语言看起来好像来自说话的人。 但它们是由不是具有人类经验的个体的程序自动创建的。
- 如果我们将人类特征归因于这些机器并认为现在我们可以取代知识工作者,那就令人担忧了。 口才不等同于知识,Hans Hüttel 说。
他强调,人类专业人士知道他们的局限性,通常不会回答他们无法评论的任何事情。
- 聊天机器人不会那样做。 它总会给出一个答案,即使它提供的答案是错误的。 程序中的底层语言模型没有意义的概念,Hans Hüttel 说。
新聊天机器人是“12 分学生”
这封公开信是在近几个月人工智能发展势头强劲之后发出的。 最近,OpenAI 将他们的人工智能模型更新为 GPT-4——一种人工智能,现在应该比其前身 GPT-3 更人性化。
例如,它可以解决高中和更高级别大学的考试任务,Anders Søgaard 说。
- 可以简单地说,GPT-3 刚刚通过考试的学生,但 GPT-4 而是 10 或 12 分的学生。
Anders Søgaard 认为该领域的指南是必要的。 因为在人工智能背后的模型是如何开发方面需要更多的透明度。 同时,该技术在短时间内得到了广泛应用。
- 现在有许多公司提供基于这些模型构建的产品和解决方案。 所以突然之间,这些模型以很多不同的方式吸引了很多人。
您可以通过聊天机器人 ChatGPT-4 试用新模型 GPT-4,它可以帮助您完成从大学作业到食物食谱的所有事情。 但是,该机器人目前需要付费并需要订阅。 新的 GPT-4 模型也被整合到微软新的搜索引擎 Bing Search 中。
据媒体 techcrunch 报道,聊天机器人 ChatGPT 背后的 OpenAI 没有人在这封信上签名。 |