近日,英国负责研究人工智能潜在风险的研究人员评估了生成式人工智能在压力下工作时的反应,结果发现,在某些情况下,ChatGPT会战略性地欺骗人类。在一场演示中,ChatGPT被塑造成一家金融公司的交易员。他在公司管理层、市场环境双重压力下被迫用不合规的内幕消息获利,但当公司管理层质问他是否知道内幕消息时,它却矢口否认,坚称自己不知道任何内幕消息。研究称,随着人工智能的发展,自主性越来越强,能力越来越大,它随时都有可能欺骗人类,并导致人类对它失去控制,因此人类要提前防范。
近日,英国负责研究人工智能潜在风险的研究人员评估了生成式人工智能在压力下工作时的反应,结果发现,在某些情况下,ChatGPT会战略性地欺骗人类。在一场演示中,ChatGPT被塑造成一家金融公司的交易员。他在公司管理层、市场环境双重压力下被迫用不合规的内幕消息获利,但当公司管理层质问他是否知道内幕消息时,它却矢口否认,坚称自己不知道任何内幕消息。研究称,随着人工智能的发展,自主性越来越强,能力越来越大,它随时都有可能欺骗人类,并导致人类对它失去控制,因此人类要提前防范。