内容持续更新中
在当今数字化的世界里,短文本的使用已成为在线交流的核心。然而,由于这些文本往往缺乏共同的词汇或背景,使得人工智能(AI)在分析时面临诸多挑战。对此,悉尼大学的一名英语文学研究生兼数据科学家贾斯汀・米勒…
DeepSeek近日正式发布并开源了其最新研发的大型语言模型R1,该模型在性能上表现出色,被认为可与OpenAI的o1正式版相媲美。这一举措不仅标志着国产AI技术的又一次重大突破,也为全球AI开发者带…
近日,一项由奥地利复杂科学研究所(CSH)主导的研究显示,尽管大型语言模型(LLMs)在多项任务中表现优异,但在应对高级历史问题时却暴露了短板。研究团队针对三大顶尖模型进行测试,包括 OpenAI 的…
最新研究显示,尽管人工智能在编程和内容创作等领域表现出色,但在处理复杂的历史问题时仍显不足。近期在NeurIPS会议上公布的一项研究表明,即使是最先进的大型语言模型(LLM)在历史知识测试中也难以取得…
近日,美国搜索引擎初创公司 Perplexity AI 向 TikTok 的母公司字节跳动提出了一项合并提案,计划将 Perplexity 与 TikTok 美国版合并成一个新实体。根据知情人士的透露…
谷歌最近正式推出了 Vertex AI RAG 引擎,这是一款旨在简化从知识库中检索相关信息并将其输入大型语言模型(LLM)的复杂流程的开发工具。作为 Vertex AI 平台的一部分,Vertex …
传统的大型语言模型(LLM)微调方法通常计算密集,且在处理多样化任务时显得静态。为了解决这些挑战,Sakana AI 推出了一种名为 Transformer² 的新型自适应框架。Transformer…
近日,OpenAI 与纽约时报之间的版权侵权诉讼在美国联邦法院开庭。此案引发广泛关注,因为它不仅涉及两大知名机构,还可能对整个数字媒体生态系统产生深远影响。法庭上,OpenAI 及其主要投资者微软提出…
近年来,人工智能(AI)的编程能力不断发展,但尚未达到完美。最近,BuzzFeed 的资深数据科学家 Max Woolf 通过实验发现,如果对大型语言模型(LLM)不断提供 “写更好代码” 的提示,A…
随着企业越来越多地应用大型语言模型(LLMs),如何提升模型的知识准确性并减少幻觉现象,成为了一项重要挑战。Meta AI 的研究人员在一篇新论文中提出了 “可扩展记忆层”,或许能够为这一问题提供解决…
近年来,训练大型语言模型(LLM)变得越来越昂贵且复杂,只有少数大型科技公司具备相应的计算资源。不过,谷歌最近推出了一种名为 SALT(小模型辅助大模型训练)的新方法,这一创新可能会彻底改变 AI 训…
随着用户体验的提升和留存率的增强,推荐系统在电商、流媒体和社交媒体等多个行业中愈发受到重视。这些系统需要分析用户、商品及其背景因素之间的复杂关系,以精准地推荐用户可能感兴趣的内容。 然而,现有的推荐系…
Meta 公司近日发布了一项突破性的研究成果,他们开发出一种新型的记忆层技术,可以显著提升大型语言模型(LLM)的事实准确性,并在参数规模上实现了前所未有的扩展。这项技术不仅挑战了传统神经网络的扩展方…
在当今科技迅速发展的背景下,大型语言模型(LLM)在多个行业中扮演着重要角色,帮助自动化任务和提升决策效率。然而,在芯片设计等专业领域,这些模型面临着独特的挑战。NVIDIA 最近推出的 ChipAl…
学术同行评审是科学进步的基石,但随着投稿数量的激增,这一系统正面临巨大压力。为了缓解这一问题,人们开始尝试利用大型语言模型(LLM)进行辅助审稿。 然而,一项最新研究揭示了LLM审稿中存在的严重风险,…
MRI 图像因其复杂性和数据量大,一直以来都是医学影像分析中的一大挑战。为了训练大型语言模型(LLM)进行 MRI 分析,开发者不得不将获取的图像切割为2D 图像,这样的处理虽然可行,但却限制了模型对…
近日,苹果公司在机器学习领域的最新研究显示,他们通过与 NVIDIA 的合作,成功将大型语言模型(LLM)的生成速度提高了近三倍。这一进展的关键在于苹果开源的技术 “Recurrent Drafter…
近日,微软 AI 研究团队发布了开源工具 PromptWizard,这是一种基于反馈驱动的 AI 框架,旨在高效优化大型语言模型(LLM)的提示设计。提示的质量对于模型输出的优劣至关重要,然而,创建高…
话说人工智能这几年是真火,尤其是大型语言模型(LLM),那简直是红得发紫。它们能写诗、能作画、能聊天,甚至还能“假装”成医生给你看病(虽然结果可能……)。但你有没有想过,这些看似乖巧的AI,背地里可能…
一项最新研究表明,顶尖的人工智能模型在接受蒙特利尔认知评估(MoCA)测试时,表现出与早期痴呆症状相似的认知障碍。这项发现强调了人工智能在临床应用中的局限性,尤其是在需要视觉和执行技能的任务中。 发表…
作为OpenAI和Anthropic之外最受关注的AI初创公司之一,Cohere在 7 月份的估值已高达 55 亿美元。这家公司的联合创始人之一正是“Attention Is All You Need…
大型语言模型 (LLM) 在自然语言处理 (NLP) 领域取得了显著进展,使其在文本生成、摘要和问答等应用中大放异彩。然而,LLM 对令牌级处理(一次预测一个词)的依赖也带来了一些挑战。这种方法与人类…
在备受瞩目的NeurIPS人工智能大会上,麻省理工学院媒体实验室教授罗莎琳德·皮卡德的一次演讲,因涉及种族偏见的言论,迅速引发业内强烈反响。 在题为"如何优化最重要的事情"的主题演…
近年来,大型语言模型(LLMs)在自然语言处理(NLP)领域取得了显著进展,广泛应用于文本生成、摘要和问答等场景。然而,这些模型依赖于逐字预测的 token 级处理方法,这种方式在理解上下文时存在困难…
哈佛大学近日宣布,计划发布一个由近100万本公共领域书籍组成的数据集,任何人都可以使用该数据集来训练大型语言模型和其他人工智能工具。 此项目由哈佛大学新成立的机构数据计划(Institutional …
在 AI 时代,大型语言模型(LLM)就像武林秘籍,其训练过程耗费巨大算力、数据,就像闭关修炼多年的武林高手。而开源模型的发布,就像高手将秘籍公之于众,但会附带一些许可证(如 Apache2.0和 L…
哈佛大学周四宣布,将公开一份包含近百万本公共领域图书的高质量数据集,任何人都可以利用它来训练大型语言模型和其他 AI 工具。 这份数据集由哈佛大学新成立的机构数据倡议 (Institutional D…