• 阅读 0
近期,ai界掀起了一场关于deepseek v3模型的热议。这款由deepseek公司推出的最新ai模型,在测试中竟然声称自己是openai的chatgpt,并且能够详细阐述openai api的使用方法。这一异常现象引发了外界的广泛猜测,是否deepseek v3在研发过程中,借助了chatgpt的输出数据?
据悉,deepseek v3的研发成本仅为557.6万美元,这一相对较低的成本更让外界对其是否“站在巨人肩膀上”产生了疑问。而openai董事长altman在社交媒体上发布的一条动态,似乎也在微妙地对此事进行调侃,使得进一步发酵。
然而,经过深入分析,业内普遍认为deepseek v3直接基于chatgpt输出训练的可能性并不大。相反,一个更为合理的解释是,随着ai生成内容在网络上的爆炸式增长,训练数据污染已成为一个不容忽视的问题。chatgpt的普及,使得大量由其生成的内容被混入各种数据源中,进而可能导致ai模型在训练过程中出现“身份混淆”。
面对这一挑战,deepseek公司表示正在积极优化数据清洗流程,以期提升模型的独立性和准确性。然而,截至目前,deepseek v3仍未完全解决这一“身份混淆”的bug。
值得注意的是,deepseek v3并非首个出现自我识别错误的ai模型。此前,谷歌的gemini模型也曾在普通话提示下,错误地声称自己是百度的文心一言。这一系列事件再次凸显了ai模型在训练过程中可能遭遇的复杂性和挑战。
ai技术的快速发展,虽然为人类带来了前所未有的便利和机遇,但同时也伴随着一系列亟待解决的问题。数据污染、模型稳定性、伦理道德等议题,正成为制约ai技术进一步发展的关键因素。未来,如何有效应对这些挑战,将是ai领域研究者们需要共同面对的重要课题。