随着人工智能技术的不断发展,我们越来越依赖ChatGPT这样的智能助手来帮助我们解决问题。然而,最近有研究指出,ChatGPT似乎变得越来越“笨”,这引发了人们对其原因的探讨。最近,加州大学圣克鲁兹分校的一项研究为我们提供了一种新的解释。
这项研究发现,在训练数据截止之后的任务上,大模型的表现明显较差。这种现象被称为“任务污染”,意味着在大模型的训练阶段,它已经见识过了很多任务示例,这给人一种AI拥有零样本或少样本能力的错觉。然而,在实际应用中,当人们提出新的任务时,由于这些任务在训练时期并未出现过,AI的表现就会受到影响。
此外,也有学者从另一个角度指出,随着时间的推移,人们的任务需求也在不断变化。然而,大模型的参数是冻结的,这意味着它们无法适应这种输入分布的变化。如果模型不能持续适应这种变化,其表现就会逐渐退化。
这种现象也提醒我们,虽然AI在某些方面表现出色,但它们仍然存在局限性。人们往往以为只要向AI提出问题,它就能给出准确的回答。然而,实际情况是,AI在训练时期已经见识过了大多数常见任务。随着时间的推移,人们开始提出更多新的问题和任务,而这些任务在训练时期并未被涵盖。这导致了AI表现不如预期的现象。
这项研究为我们提供了ChatGPT“变笨”的新解释:世界在不断变化,而AI却停滞不前。虽然AI在某些方面表现出色,但我们必须意识到其局限性,并不断努力改进和适应技术的变化。只有这样,我们才能充分利用AI的潜力,推动科技的进步。