内容持续更新中
2024年北京智源大会上,AI思想家Max Tegmark提出,未对齐的超级智能威胁让中美关系更加重要。Tegmark和Russell阐释了AI安全理解,指出人工智能灵活进步,中国在研究中并不落后,但国际认知缺乏合作。演讲着重AI安全意识不可或缺,中国应设权威研究机构,有效协作。
智源大会“尖峰对话:通往AGI之路”圆桌论坛探讨大模型的价格战、人工智能安全与伦理等问题,以及通往AGI的挑战。四大模型企业CEO分享了对价格战的看法,对AGI的定义和通往之路进行了独到分析。同时,AI安全问题也受到关注,对于AI安全的长远规划和挑战进行了畅谈。
AI正处于‘奥本海默时刻’,AGI发展引发了人们对AI安全的深刻担忧。科学家们呼吁全球合作,设立AI安全监管机构,制定统一标准,划定‘红线’,确保AI不能越界。未来2-4年关乎AI的安全性,对待AI必须谨慎。
AI正被越来越多地与核武器类比,科学家们对AI安全性提出担忧。AI发展速度指数级增长,但监管跟不上。专家们呼吁全球合作治理AI安全,划定红线,建立安全监管标准。
由互联网和科技界掀起的大模型浪潮,迎来了新战事。 自今年3月以来,国内已有超过20家企业入局大模型赛道。从百度“文心一言”、阿里“通义千问”的发布,到360“红孩儿”、商汤“日日新”、网易“玉言”、科…
5月25日,在广州举行的中国数字建筑大会2024全体大会上,广联达重磅发布建筑行业AI大模型AecGPT和建筑行业AI平台,标志着AI赋能建筑行业数字化发展取得全新突破。同时,基于数据和连接的AI+项…
当地时间周二(5月28日),OpenAI发布公告称董事会成立一个负责把控AI开发方向的安全顾问委员会。 图片来源:OpenAI OpenAI成立新的安全顾问委员会 成员全是自己人 OpenAI周二宣布…
【产业互联网周报是由钛媒体TMTpost发布的特色产品,将整合本周最重要的企业级服务、云计算、大数据领域的前沿趋势、重磅政策及行研报告。】 国内资讯 世纪互联创始人陈升:AI的终极目标是…
5月17日消息,AI教父Geoffrey Hinton接受访谈。对谈不仅涉及Hinton对大型神经网络、多模态学习、模拟计算、AI安全等技术发展的看法,还有其接触人工智能的经历以及与Ilya初识的回忆…
随着全国首个官方“大模型标准符合性测试”结果公布,AI大模型商业化应用的关注度进一步提升。在金融领域,AI大模型被不少业内人士视为第二次数字化浪潮,是金融科技向智能金融的进阶升级。但目前来看,智能金融…
作者 | 香草 编辑 | 李水青 智东西12月25日报道,近期,AI生图赛道迎来一波新的爆发期。不仅Meta、谷歌等科技巨头接连推出新的文生图模型,现象级产品Midjourney也在上周迎来今年最大的…
Patronus AI发布SimpleSafetyTests测试套件,发现ChatGPT等AI系统存在关键安全漏洞。测试揭示了11个LLMs中的严重弱点,强调安全提示可减少不安全响应。结果表明在处理真…
OpenAI首席运营官Brad Lightcap接受媒体采访,谈到ChatGPT、AI发展方向和公司内部问题。他表示,ChatGPT用户增长远超公司预期;AI技术和应用还处于早期阶段,需要不断试错和探…
微软总裁表示在短期内创建超智能AI几乎不可能实现,需要数十年时间。OpenAI公司寻找人工通用智能的突破引起担忧,但微软总裁否认了危险突破的说法。他强调现阶段需关注AI安全问题,并提出在AI系统中应有…
英国国家网络安全中心(NCSC)、美国网络安全与基础设施安全局(CISA)等国际机构发布了一份关于人工智能系统安全的新指南。这些指南旨在为开发人员提供指导,确保在设计、开发、部署和运营AI系统的过程中…
最近,全球首届AI安全峰会在英国布莱切利园成功举办,来自包括中美等28个国家的代表出席并签署了《布莱切利AI宣言》。该宣言呼吁AI科研机构和企业应以负责任的方式设计、开发和使用AI。宣言承认AI改善人…
英国政府日前宣布,将增加资金投入,用于支持两台旨在推动先进人工智能模型安全研究的超级计算机。英国政府将为「人工智能研究资源」增加资金,从之前宣布的1亿英镑增至3亿英镑。这笔投资将确保英国的科学人才拥有…
最近,AI界多位大佬在线上展开激烈讨论,围绕人工智能可能存在的风险、是否需要监管等问题针锋相对。以吴恩达和Hinton为代表的两派人分别表达了不同观点。吴恩达等人主张开放创新,认为过度监管会扼杀创新;…
一篇由杰弗里·辛顿、尤瓦尔·赫拉利等联合撰写的论文呼吁全球政府采取具体监管措施,以规范AI的发展和应用。这些专家包括三位图灵奖得主、一位诺贝尔奖得主以及众多AI学者。专家集结呼吁政府监管,提出“三分之…
谷歌AI负责人Demis Hassabis认为,人工智能的发展对人类构成了类似气候变化的威胁。他强调必须认真对待AI的风险,呼吁建立监管AI的独立机构。谷歌等公司成立了AI安全基金,推动对AI模型的有…
微软、OpenAI等科技公司联合投入1000万美元,任命Chris Meserole为“前沿模型论坛”执行董事,致力于加强生成式AI产品的安全。他们成立AI安全基金,支持全球独立研究人员构建安全的AI…
英国谢菲尔德大学的研究人员揭示了一个令人担忧的发现:ChatGPT等人工智能工具可能会被操纵,用于生成恶意代码,从而危害数据库安全。多种商业AI工具存在安全漏洞,成功攻击可能导致泄露机密数据库信息,破…
英国即将于11月1日至2日举行首届全球人工智能(AI)安全峰会。据英国《金融时报》19日援引英国和中国官员的消息报道,中国预计将出席此次AI安全峰会。 报道称,两名中国政府官员透露,中国已决定至少派出…
初创公司Reality Defender宣布成功融资1500万美元,专注于检测和处理合成媒体,为企业和政府机构提供多种工具。公司首席执行官表示他们已经捕获了数百万个深度伪造媒体,并发布了可解释AI功能…
白宫要求科技公司在AI生成内容中添加水印,以识别虚假信息。但马里兰大学的研究团队发现,所有当前的数字图像水印技术都可以轻易被破解。水印可以被删除,也可以在真实图像中添加误导检测结果。由于缺乏可靠的水印…
数据是数字经济的关键要素,数据安全已成为数字经济时代最紧迫、最基础的问题之一。 “生成式AI服务出现,让数据的真实性遭到空前挑战。”中国科学院院士冯登国在近日举行的第六届中国数据安全治理高峰论坛上说。…
生成式人工智能AIGC(Artificial Intelligence Generated Content)让人们看到了未来世界AI的无限潜力,但在技术成果涌现之时,内容和数据的安全问题也第一次变得格…
前面一段时间,小编向大家介绍过,随着最近GPT-4语言模型的正式投入使用,ChatGPT也带来了全新的插件——网络浏览器和代码解释器,赋予ChatGPT使用工具、联网、运行计算的能力。 更新后,根据全…