Hirundo是一家致力于机器学习的初创公司,已完成 800 万美元种子轮融资,旨在解决人工智能领域一些最紧迫的挑战:幻觉、偏见和嵌入式数据漏洞。本轮融资由Maverick Ventures Israel领投, SuperSeed、Alpha Intelligence Capital、Tachles VC、AI.FUND和Plug and Play Tech Center参投。

让 AI 遗忘:机器学习的前景
与专注于改进或过滤 AI 输出的传统 AI 工具不同,Hirundo 的核心创新在于机器学习——这项技术允许 AI 模型在训练完成后“遗忘”特定的知识或行为。这种方法使企业能够精准地从已部署的 AI 模型中移除幻觉、偏见、个人或专有数据以及对抗性漏洞,而无需从头开始重新训练。重新训练大型模型可能需要数周时间和数百万美元;而 Hirundo 提供了一种更为高效的替代方案。
Hirundo 将这一过程比作AI 神经外科手术:该公司能够精准定位模型参数中不良输出的来源,并精准地将其移除,同时保持模型性能。这项突破性的技术使组织能够在生产环境中修复模型,并更加自信地部署 AI。
为什么 AI 幻觉如此危险
AI 幻觉是指模型倾向于生成看似合理甚至符合事实的虚假或误导性信息。这些幻觉在企业环境中尤其成问题,因为基于错误信息做出的决策可能导致法律风险、操作失误和声誉损害。研究表明,AI 为法律查询生成的“事实”中,58% 到 82%包含某种类型的幻觉。
尽管人们努力使用护栏或微调来尽量减少幻觉,但这些方法往往会掩盖问题,而不是消除它们。护栏就像过滤器一样,而微调通常无法消除根本原因,尤其是当幻觉深深植根于模型学习到的权重中时。Hirundo 则更进一步,它实际上从模型本身中移除了相应的行为或知识。
适用于任何 AI 堆栈的可扩展平台
Hirundo 平台注重灵活性和企业级部署。它集成了生成式和非生成式系统,涵盖各种数据类型——自然语言、视觉、雷达、激光雷达、表格、语音和时间序列。该平台可自动检测训练数据中的错误标记项、异常值和歧义。然后,它允许用户调试特定的错误输出,并将其追溯到有问题的训练数据或已学习的行为,并可立即消除这些行为。
这一切都是在不改变工作流程的情况下实现的。Hirundo 的 SOC-2 认证系统可以通过 SaaS、私有云 (VPC) 甚至本地隔离运行,使其适用于金融、医疗保健和国防等敏感环境。
跨模型展示的影响
该公司已在热门大型语言模型 (LLM) 上展现出显著的性能提升。在使用 Llama 和 DeepSeek 的测试中,Hirundo 实现了幻觉减少 55%,偏差减少 70%,以及即时注入攻击成功率降低 85% 的效果。这些结果已通过 HaluEval、PurpleLlama 和 Bias Benchmark Q&A 等独立基准测试得到验证。
虽然当前的解决方案与 Llama、Mistral 和 Gemma 等开源模型配合良好,但 Hirundo 正在积极扩展对 ChatGPT 和 Claude 等门控模型的支持。这使得他们的技术能够应用于所有类型的企业 LLM。
拥有学术和行业深度的创始人
Hirundo 由三位学术界和企业 AI 领域专家于 2023 年创立。首席执行官 Ben Luria 是罗德学者,曾任牛津大学访问学者,并曾创立金融科技初创公司 Worqly,以及支持高等教育的非营利组织 ScholarsIL 的联合创始人。Hirundo首席技术官 Michael Leybovich 曾是以色列理工学院的研究生,并曾担任 Ofek324 的获奖研发官。公司首席科学家 Oded Shmueli 教授曾任以色列理工学院计算机科学系主任,并在 IBM、惠普、AT&T 等公司担任研究职位。
他们的集体经验涵盖基础 AI 研究、实际部署和安全数据管理,使他们具有独特的资格来解决 AI 行业当前的可靠性危机。
投资者支持值得信赖的 AI 未来
本轮融资的投资者与 Hirundo 的愿景一致,即打造值得信赖、企业级的 AI 。Maverick Ventures Israel 创始人Yaron Carni指出,迫切需要一个能够在 AI 造成现实世界危害之前将其消除的平台。 “如果不消除AI中的幻觉或偏见,我们最终会扭曲结果,并助长不信任,”他说道。“Hirundo 提供了一种AI分类——删除不实信息或基于歧视性来源的数据,彻底改变AI的可能性。”
SuperSeed 的执行合伙人Mads Jensen对此表示赞同:“我们投资于能够变革垂直行业的杰出AI公司,但这种变革的威力取决于模型本身的可靠性。Hirundo 的机器学习方法填补了AI开发生命周期中的一个关键空白。”
应对 AI 部署中日益严峻的挑战
随着 AI 系统越来越多地融入关键基础设施,人们对幻觉、偏见和嵌入敏感数据的担忧也越来越难以忽视。这些问题在金融、医疗保健和国防等高风险环境中构成了重大风险。
机器学习“去学习”正成为 AI 行业应对模型可靠性和安全性日益增长的担忧的关键工具。随着幻觉、内嵌偏见以及敏感数据泄露日益损害人们对已部署 AI 系统的信任,机器学习提供了一种直接降低这些风险的方法——在模型训练并投入使用之后。
机器学习去学习并非依赖于重新训练或过滤等表面修复,而是能够有针对性地从已投入生产的模型中移除问题行为和数据。这种方法正受到企业和政府机构的青睐,他们正在为高风险应用寻求可扩展且合规的解决方案。
作者:Antoine
译自:https://www.unite.ai/hirundo-raises-8m-to-tackle-ai-hallucinations-with-machine-unlearning/
本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/zixun/58778.html