DeepSeek AI 发布了其最新的通用模型 DeepSeek-V3,该模型在多个前沿评估中表现出色,尤其是在数学和编程竞赛等困难任务上。尽管其激活参数量仅为 37B,但其性能超越了 GPT-4o 和 Claude 3.5。DeepSeek 还分享了详细的技术报告,展示了其在计算效率和模型优化方面的创新。文章探讨了训练前沿 AI 模型的成本,并指出 DeepSeek 在资源有限的情况下取得了显著进展。
Home
LLM
标签: LLM
为什么AI领域都在讨论DeepSeek
DeepSeek发布全新大语言模型DeepSeek-R1,性能媲美OpenAI o1,却以更低成本开源,迅速引发硅谷和AI行业的广泛讨论。这篇报道详细分析了其技术突破、市场冲击及未来前景。
本地运行LLM:Ollama初学者指南
Ollama是一个强大的本地LLM运行和管理平台,支持跨操作系统的部署。本指南提供了从下载、运行到与LLM交互的详细步骤,适合初学者快速上手。
LLM能否通过不断要求“写出更好的代码”来写出更好的代码?
通过实验发现,反复要求LLM“优化代码”确实可以提升代码质量,但效果取决于提示设计的明确性。本文展示了通过提示工程在Python中实现100倍性能提升的过程,并强调了人类工程师的关键作用。
2024年大语言模型(LLMs)回顾
2024年,大型语言模型(LLMs)领域发生了多项重大突破,涵盖GPT-4壁垒被攻克、多模态模型普及、LLM价格下降、语音和实时摄像头功能崛起等主题。此外,本文还探讨了推理扩展模型、合成训练数据和环境影响等深远影响,全面回顾了一年来的技术发展和趋势。
AI生成诗歌能否媲美人类创作?Nature论文引发争议
AI生成诗歌能否媲美人类创作?一篇发表在Nature的论文指出,AI生成诗歌因其简洁易读的特点更受普通读者欢迎,引发学术界关于诗歌艺术与AI创作本质的热议。论文方法和受试者选择遭到批评,专家认为AI缺乏情感与创新能力,无法触及诗歌创作的核心本质。探索AI创作与人类艺术的边界仍是未来重要方向。
为什么GPT-3.5-turbo-instruct擅长下棋,而其他大模型不行?
当前的大型语言模型(LLMs)在许多任务中表现出色,但几乎都在国际象棋方面表现不佳,唯独GPT-3.5-turbo-instruct例外,能够达到高级业余棋手的水平。GPT-3.5-turbo-instruct的优异表现并非偶然,而是训练数据、模型设计与提示优化的综合结果。