大型语言模型如GPT-3在制药和金融领域的应用仍显不足

自然语言处理(NLP)是机器学习中最令人兴奋的子集之一。这使得我们可以像人类一样与计算机交谈,反之亦然。Siri、谷歌翻译和银行网站上方便的聊天机器人都依赖...


自然语言处理(NLP)是机器学习中最令人兴奋的子集之一。这使得我们可以像人类一样与计算机交谈,反之亦然。Siri、谷歌翻译和银行网站上方便的聊天机器人都依赖于这种人工智能,但并不是所有的NLP系统都是平等的。

在当今的人工智能领域,经过重要数据训练的更小、更有针对性的模型通常更适合商业计划。然而,大规模的NLP系统具有令人难以置信的沟通能力。它们被称为“大规模语言模型”(LLM),可以回答简单的语言查询并生成新颖的文本。不幸的是,它们中的大多数都是新奇的,不适合大多数专业组织对其人工智能系统所要求的专业工作。

Open AI gpt -3最受欢迎的法学硕士之一是工程学的壮举。然而,它们也倾向于输出主观的、不准确的或无意义的文本。这使得这些庞大而流行的模型不适合精度至关重要的行业。

良好的前景


你好人形

现在订阅我们的时事通讯,每周在您的收件箱中回顾您最喜欢的人工智能故事。

在STEM领域没有绝对的赌注,但在可预见的未来,欧洲的NLP技术前景光明。NLP的全球市场目前估计约为135亿美元,但专家表示,仅欧洲市场就在增长。到2030年超过210亿美元。

这为新的创业公司提供了一个广阔的开放市场,以及一些老牌行业参与者,如:dirty When Arria NLGThe前Dataiku最初在巴黎成立,但在全球融资阶段表现非常出色,现在在世界各地都设有办事处。后一家公司Arria NLG本质上是从阿伯丁大学(University of Aberdeen)分拆出来的,而且已经远远超出了它的苏格兰起源。两家公司都致力于以数据为中心的解决方案,为企业、制药和政府服务提供可验证和准确的结果,从而在自然语言处理解决方案的基础上取得巨大成功。

这些特殊渠道如此成功的原因之一是,训练和建立值得信赖的人工智能模型非常困难。例如,在大型数据集上训练的法学硕士倾向于以随机陈述的形式输出“假新闻”。如果你想写想法和灵感,这是有用的,但如果准确性和事实输出很重要,这是完全不可接受的。

我和其中一家公司的首席执行官伊曼纽尔·沃克纳(Emanuel Warkner)谈过。IsopHis总部位于巴黎,是一家人工智能创业公司,专门在制药和金融等标准化行业使用NLP进行自然语言生成(NLG)。根据他的说法,在为这些领域构建人工智能时,没有任何错误的余地。“它必须是完美的,”他告诉TNW。

Yseop CEO Emmanuel Walckenaer

法学硕士的问题

在2022年的人工智能记者中,GPT-3和谷歌的lambda有史以来第一次,专家们能够与机器“交谈”,这产生了有趣而引人注目的文章。更不用说这些模型已经变得非常善于模仿人类了。一些专家甚至认为它们正在变得有知觉。

这些系统令人印象深刻,但正如上面提到的,它们通常是完全不可靠的,它们是脆弱的,不可靠的,容易编造。用外行的话来说,他们是愚蠢的骗子。原因在于他们的训练方法。

法学硕士是数学和语言学的完美结合。但最根本的是,它们依赖于训练数据。例如,你不能指望训练人工智能。语料库的Reddit帖子,不认为有事实矛盾。正如那句老话所说,你付出什么就会得到什么。

例如,如果您在一个充满烹饪食谱的数据集上训练LLM,您可以开发一个可以根据需要生成新食谱的系统。您甚至可以要求它为数据库中没有的东西生成新颖的食谱。比如,咖喱小熊软糖。

就像人类厨师需要利用他们的烹饪背景来弄清楚如何将小熊软糖融入类似咖喱菜的东西一样,人工智能可以根据它所接受的训练来组合新的食谱。如果它是在一个咖喱食谱数据库上训练的,那么它很有可能输出的结果至少接近于人类给出的相同任务。

但是,如果训练人工智能的团队使用了一个巨大的数据集,里面装满了数十亿或数万亿个与咖喱无关的互联网文件,你永远不知道机器会吐出什么。你可能会得到一个很棒的食谱,或者你可能会随机输出对NBA超级巨星斯蒂芬库里的评论。

Steph Curry

这是操作一个大型LLM的有趣部分。当我运行查询时,我完全不知道我得到了什么。但医疗、金融或商业情报报告没有给这种不确定性留下任何余地。

控制人类的知识以供机器使用

为标准化行业开发人工智能解决方案的公司无法承受在庞大的数据库上对庞大的模型进行暴力训练,只是为了看看它们的能力。他们系统的输出通常提交给监管机构,如USFDA和全球金融监管机构进行审查。出于这个原因,这些组织必须密切关注他们训练模型的数据类型。

根据Walckenaer的说法,Yseop的首要任务是确保用于训练系统的数据准确且符合道德规范。这意味着我们只使用相关数据并将其匿名化以删除个人身份信息,从而不会损害个人隐私。

接下来,该公司必须确保其机器学习系统没有偏见、遗漏和疏忽。幻觉。是的,没错。当试图输出100%准确的信息时,这是一个大问题。

为了克服幻觉的问题,Yseop依赖于在每个阶段将人类置于循环中。该公司的算法和神经网络由数学家、语言学家和人工智能开发人员共同开发。他们的数据库由产品提供的研究人员和公司直接提供的数据组成。他们的大部分服务都是通过SaaS完成的,旨在“增强”人类专家,而不是取代他们。

由于每个阶段都有人类参与,所以要进行检查,以确保人工智能不会接受提供的数据,并对新的骗局产生“幻觉”。例如,这可以防止系统使用真实的患者数据作为模板,并输出关于不存在的患者的虚假数据。

开发人员在语言处理中必须克服的下一个问题是省略。当AI模型在输出信息时跳过数据库的相关或重要部分时,就会发生这种情况。

像GPT-3这样的大型法学硕士并没有缩写问题。无论如何,我不确定从这些“一切皆有可能”的系统中期待什么。然而,旨在帮助专业人士和公司对有限数据集进行分类的目标模型只能以揭示所有相关信息的方式“包含”。有帮助的。

大型法学硕士通常无法跨越的最后一个主要障碍是偏见。技术偏差是最常见的一种形式。当系统被设计成这样,它产生的输出不遵循科学的方法时,就会发生这种偏差。

技术偏见的一个经典例子是教机器“预测”一个人的性取向。这种人工智能没有科学依据(参见我们的文章,为什么它被认为是“基达”)。只是废话和骗人的油),他们只能通过纯粹的技术偏见来制造虚假的产出。

no gaydar

其他可能潜入NLP和NLG模型的常见偏见包括人为偏见(当人类由于文化或故意误解而不恰当地标记数据时发生)和制度偏见。

对于依赖准确的数据和输出来做出重要决策的组织来说,最后一个可能是一个大问题。在制药和金融等标准化行业,这种偏见可能会导致患者预后不佳和财务崩溃。偏见是人工智能中最大的问题之一,像GPT-3这样的法学硕士基本上和他们接受训练的数据库一样有偏见。

虽然很难完全消除偏见,但最好只使用最高质量的手工检查数据,并设置系统的“参数”(基本上,允许开发者微调虚拟刻度盘和旋钮),这有助于减少偏见。AI输出-调好。

GPT-3和类似的模型能够惊人的散文技艺,有时甚至欺骗一些专家。然而,它完全不适合一个标准化的行业,因为准确性和问责制是最重要的。

为什么要使用人工智能

当风险很高时,采用LLM或NLP/NLG似乎是个坏主意。例如,在制药行业,偏差和遗漏会极大地影响临床报告的准确性。谁会愿意相信一台能预见自己未来财务状况的机器呢?

幸运的是,像Yseop这样的公司并没有使用充满未经检查信息的开放式数据集。诚然,您不太可能要求Yseop的制药模型写一首歌或创建一个合适的咖喱食谱(使用当前数据集),但是控制输出的数据和参数是经过仔细选择的。它是经过审查和使用的,所以可以说是可靠的。构建它们的任务。

但问题仍然存在,为什么要使用人工智能?到目前为止,我们已经使用了非自动化的软件解决方案。

沃尔肯纳尔告诉我,我可能很快就没有选择了。他说,人类劳动力没有跟上,至少在制药行业是这样。

Walckenaer说:“未来十年,对医学作家的需求将增加两倍。”他补充说,Yseop的系统可以将该行业的效率提高50%。它改变了游戏规则。对于那些担心被机器取代的人来说,这是个好消息。他确信,Yseop的系统是为了增强熟练的人类劳动力,而不是取代他们。

在其他标准化行业,如金融和商业智能领域,NLP和NLG有助于减少或消除人为错误。虽然这可能没有拥有一个法学硕士那么令人兴奋,因为它可以假装和你聊天,就像一个著名的历史人物,或者只要按一下按钮就能产生假新闻,但现在有成千上万的企业正在节省时间和金钱。

https://thenextweb.com/news/large-language-models-like-gpt-3-arent-good-enough-for-pharma-finance像GPT-3这样的大型语言模型对于制药和金融来说还不够好

本文来自作者[春竹]投稿,不代表xuhbs号立场,如若转载,请注明出处:https://m.xuhbs.cn/zskp/202508-1574.html

(6)

文章推荐

  • 韩国年轻人:色情深度造假的受害者与加害者的双重身份

      4分钟阅读数十名女性佩戴白色口罩,举起反对色情深度伪造的标语。2024年8月30日(星期五)下午,多个韩国女权组织在首尔举行示威,抗议在韩国日益严重的性犯罪现象。近年来,随着人工智能(AI)技术的发展,这些深度伪造技术被用于在色情内容上叠加人脸,尽管对

    2025年07月08日
    6
  • 荷兰、比利时与卢森堡:三位前总理的职场争夺战

      小国有时有着最大的野心。在领导这个人口只有65万的大公国十年后,卢森堡首相泽维尔·贝特尔面临着一个不确定的未来。民意调查显示,在本周末的大选中,他正在与机会作斗争,基督教社会人民党(CSV)有望将贝泰尔的自由派赶出政府。

    2025年07月08日
    5
  • 老房墙壁藏猫木乃伊的神秘背后

      “嘿,亲爱的,我听到外面有奇怪的声音——我想女巫回来了。你能抓住那只猫吗?不,是死去的那个。我们在厨房这边有个地方。以防万一,我已经挖了个洞。哦,当然,这根本不是问题!是的。现在,只要……这个爪子向上,这个爪子向下。很好的攻击姿势,看到了吗?好了,你去墙上!

    2025年07月16日
    6
  • 汉普郡警方确认怀特岛海岸发现一名70岁以上女性遗体

      警方称,在怀特岛的海滩上发现了一具70多岁妇女的尸体。据美联社报道,周日早上,这名身份不明的人在尚克林镇附近被发现,紧急服务部门被叫到现场。汉普郡和怀特岛的警察说,她一到现场就被宣布死亡。警方在一份声明中说:“正式的身份鉴定尚未进行,但她的近亲已经被告知,并将为验尸官准备一份

    2025年07月17日
    6
  • 东伦敦摩天大楼火灾源于吸烟行为

    伦敦消防队(LFB)透露,布莱克沃尔一栋高层建筑发生火灾,起因是有人在公寓里吸烟。大约70名消防员在这栋45层的大楼的25层扑灭了一场大火,大火烧毁了一套公寓的一部分和整个阳台。没有人员伤亡报告。伦敦消防局表示,周一下午1点30分左右,在比

    2025年07月21日
    6
  • 隐秘的窃盗:Co-op集团揭示入店盗窃问题日益严重的后果

    在ShotsTV.com和Freeview262或free565上观看更多视频访问照片!现在今年到目前为止,这家会员制互助银行已经花费了1800万英镑用于保护其食品业务员工的措施,包括推出随身携带的摄像头和强化的售货亭。尽管如此,尽管该公司在这个问题上

    2025年07月28日
    6
  • 泰雷兹公司在ATL-2海上巡逻机上进行SonoFlash声纳浮标测试

      为了适应不断变化的水下环境,泰雷兹公司开发了SonoFlash。该公司表示,新一代声纳浮标建立在数十年的声纳和声学传感器专业知识的基础上,为海军提供了一个雄心勃勃的新解决方案。法国国防电子公司还发布了这段涉及法国海军ATL2MPA的测试视频:一个布特SonoFlashSo

    2025年07月31日
    6
  • 即将举行的罢工投票可能对波音公司的财务复苏构成威胁

    波音公司(BoeingCo.)正在寻求避免其最大工会在现有协议到期之际发起一场造成严重后果的罢工。美国航空管理局751区工会和飞机制造商之间的谈判一直很紧张。不过,这一次,波音的利害关系特别大,这使得这些合同谈判尤其重要。原因如下:450亿个和解

    2025年08月02日
    5
  • 推动风能发展——数以千计的职位亟需填补

    在考虑2024年的新职业吗?或者您正在考虑您的CAO选项。无论你的热情是什么,爱尔兰的风能行业都有一条适合你的绿色职业道路。新的WorkinWind平台workinwind。ie强调了爱尔兰可再

    2025年08月16日
    1
  • 今日热议“微信斗地主有挂吗”了解开挂过程

    微信斗地主有挂吗是一款可以让一直输的玩家,快速成为一个“必胜”的ai辅助神器,有需要的用户可以加我微下载使用。手机打牌可以一键让你轻松成为“必赢”。其操作方式十分简单,打开这个应用便可以自定义手机打牌系统规律,只需要输入自己想要的开挂功能,一键便可以生成出手机

    2025年08月16日
    1

发表回复

本站作者后才能评论

评论列表(4条)

  • 春竹
    春竹 2025年08月07日

    我是xuhbs号的签约作者“春竹”!

  • 春竹
    春竹 2025年08月07日

    希望本篇文章《大型语言模型如GPT-3在制药和金融领域的应用仍显不足》能对你有所帮助!

  • 春竹
    春竹 2025年08月07日

    本站[xuhbs号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育

  • 春竹
    春竹 2025年08月07日

    本文概览:自然语言处理(NLP)是机器学习中最令人兴奋的子集之一。这使得我们可以像人类一样与计算机交谈,反之亦然。Siri、谷歌翻译和银行网站上方便的聊天机器人都依赖...

    联系我们

    邮件:xuhbs号@sina.com

    工作时间:周一至周五,9:30-18:30,节假日休息

    关注我们