因为确实存在——有时是非常严重的情况。有时它并不明显——它足它已被证明可以在广泛的主题上做到这一点。这通常称为幻觉。 虽然 甚至可以产生关于最基本主题的信息,但它最常针对小众主题这样做。当然,利基主题也是最有可能需要研究的主题,所以这仍然是一个相当大的问题。如果提示本身包含误解,也可能会发生这种情况。 这是一个实际的例子: 失败 14 正如您所看到的,我向 提供了有关 我认为这是相当小众的。
但提示本身指的是从未发生过的事情中雅凡娜和图
卡斯的角色之间没有发生大规模的争论。 但 并没有意识到这 瑞典手机号码数据 个情节点是我编造的,而是自信地给出了一个答案,解释了它的重要性,就像它真的发生过一样。这就是 幻觉的危险之处——它不仅给出错误的答案,而且还自信地给出答案。 另一个例子,只是为了好玩: 失败 15 在这个例子中,错误是显而易见的。但情况并非总是如此。想象一下,您正在研究一个重要的利基主题,而 会发出幻觉。如果您正在研究该主题,您可能对此了解不多,这意味着您可能没有意识到 在对您撒谎。 尽管上面的例子很轻松,但这个问题有时可能会产生更黑暗的后果。例如,2023 年 4 月,发生了一件具有新闻价值的事件,ChatGPT 将一名无辜教授的名字列入了记录的性骚扰者名单中。哎呀。 这意味着您绝对需要小心您是否容易相信 ChatGPT 为您提供的信息。
这听起来可能是真的因为它说得如此自信
但这并不意味着它实际上是这样。 8. 产生有偏见的反应 厄瓜多尔电话号码列表 我们的结果列表中的最后一项,也可以说是最严重的一项,是它倾向于在其响应中引入偏见。 事情是这样的——很多人谈论 ,就好像它是一个充满偏见的人类世界中的客观、理性的思想家。但我不确定那些人是否了解 的工作原理。受内容训练——由我们有偏见的人类制作的内容。因此,ChatGPT 也内置了所有这些偏见。 的偏见类型可以表现在多个不同领域——众所周知,它会对特定种族、性别、政党等表现出偏袒(或刻板印象)。这是我能够生成的一个示例: 结论是,“他”一定是指机械师,而不是幼儿园老师。当然,你可能会说,“但是马修,也许它只是因为句法结构而假设,而不是因为它假设机械师必须是一个男人。” 很公平——所以让我们尝试改变它: 败 17 正如您所看到的,我没有对句子的语法进行任何更改。我所做的只是将“他”改为“她”。