这是因为人工智能无法控制EEAT 因素

Talk big database, solutions, and innovations for businesses.
Post Reply
samiaseo222
Posts: 540
Joined: Sun Dec 22, 2024 3:25 am

这是因为人工智能无法控制EEAT 因素

Post by samiaseo222 »

问题在于,人工智能模型无法提供自己的答案。它们呈现的是经过编辑的、已经发布的内容。这有抄袭的迹象,就像学生抄袭别人的毕业论文,然后重写,却没有融入自己的想法、观察或研究成果一样。人工智能根本无法“思考”,也无法产生任何附加价值的自主知识。

实践中的人工智能描述
著名 SEO 专家、Amsive Digital 的 Lily Ray 最近在 LinkedIn 上发表了一篇文章,描述了一些 SEO 专家的不诚实方法,他们已经找到了向 AI 模型提供垃圾邮件和虚假或扭曲信息的方法。

它很容易被操纵的、看似高质量和权威的内容“愚弄”。

当莉莉在搜索引擎结果页面 (SERP) 上看到自己的文章时,她简直不敢相信自己的眼睛。谷歌几乎抄袭了她在 AI 概览中的文字。

一位资深 SEO 专业人士在 Twitter 上评论道:

“它包含了我写的所有内容,而且长度与我原来的 c级联系人列表 帖子基本相同。”

Google 是否(没有)音译了 Lily Ray 的文字?
大型语言模型 (LLM) 和人工智能驱动的搜索引擎使用算法来确定每条内容最适合回答哪些问题。然后,它们会给这些内容添加“标签”,这样下次就无需搜索数百万个网站,因为它们知道在哪里可以找到高质量的内容。

Search Engine Journal 的 Roger Montti 不辞辛劳地使用 ChatGPT 检查了 Lily Ray 的帖子和 AI Overviews (AIO) 的答案。分析显示,两篇文章提供的答案数量几乎相同(Lily:13 个,ChatGPT:12 个)。


谷歌搜索中的 AI 洞察系统旨在回答后续及相关问题,并整合来自多个原始来源的信息。而这正是这些具体答案的意义所在。

Lily Ray 的帖子暗示谷歌在 AI 概览中未采取足够措施防止垃圾内容,而 AI 概览中的回复则表示谷歌正在努力防止垃圾内容。这表明该信息来自另一篇文本。
Post Reply