AI创造的黎明:探寻2023 年生成人工智能的崛起
可以说2023年是人工智能或AI以生成性AI的形式迈出其第一个重大进化的一年,有些人认为这是自我意识的最终目
2023-04-17今年已经过去了四分之一,可以说2023年是人工智能或AI以生成性AI的形式迈出其第一个重大进化的一年,有些人认为这是自我意识的最终目标。
【资料图】
几年来,科技行业一直在建设人工智能能够从训练数据中创造新内容的能力。特别是在过去的五年里,随着处理能力、训练、推理和基础模型的进步,人工智能已经开始从原始的状态中慢慢爬出来,可能会用自己的两条腿走路。然而,不安全的是,精灵是否已经过早地被放出了瓶子,如果是这样,可以做些什么?上个月,高通公司在巴塞罗那举行的世界移动通信大会上展示了生成性人工智能,它不是在服务器上而是在手持设备上近乎实时地运行和执行。
在演示中,高通公司产品管理副总裁Ziad Asghar向搭载骁龙处理器的智能手机口头描述了一个场景,该场景随后被转化为新的图像并显示在智能手机的显示屏上。这是通过稳定扩散模型完成的,该模型是一个开源的深度学习模型,旨在根据文本描述创建详细的图像。
最近,在英伟达最新的GPU技术大会(GTC)上,英伟达首席执行官黄仁勋加倍支持大型语言模型(LLMs),这是一种基于单词序列加权概率的自我监督学习模型,可用于自然语言处理任务,如通过对话回答问题或从给定提示生成新文本。LLMs是最近生成性人工智能能力(如ChatGPT)的基础模型。
在支持LLMs的同时,他还将其公司定位为从芯片到软件、加速卡、系统和服务的全栈式人工智能供应商,以利用他所说的人工智能的 "iPhone时刻"。 当商业产品 开始使用技术 来解决现 实世界的 问题 时,就是 一项新技术发展到 "为技 术而技 术 "阶段的标志 之一。
与GTC同时,Adobe举行了他们的年度Adobe峰会,他们将生成性人工智能用于解决极其有利可图的营销行业的问题,而这个问题直到现在还无法解决:即更接近于针对一个人的营销,或者Adobe的数字体验总裁Anil Chakravarthy所说的 "大规模的个性化"。Adobe的数字体验使命是帮助他们的商业伙伴通过顶线增长和成本效率来推动利润。根据Chakravarthy的说法,客户体验是关键。
在峰会第一天的主题演讲中,他提出,营销人员能够使他们的活动更加个性化和相关,客户的参与度就越高,然后转化为更高价值的互动和更多的客户忠诚度。然而,考虑到创建营销活动的时间、金钱和资源成本以及这些活动中使用的内容,营销人员能做的最好的事情就是将市场细分为少数具有共同特征的目标群体,直到现在。
在峰会上,Adobe公布了Firefly,他们新的生成性人工智能模型系列,至少在一开始,专注于快速创建用于商业活动的图像和文本。考虑到将在商业活动中使用的内容的具体需求,在模型的训练输入和推理输出中考虑到了知识产权、版权以及图像和文本的竞争背景。在Adobe的Sensei GenAI平台中使用时,Adobe也在使用人工智能来确定活动目标市场的当前购买趋势,并使用该模型的输出为营销人员推荐个性化的活动,以迅速利用这一趋势。
为了帮助说明一个有代表性的用例,Adobe使用了一个旅游行业的例子。在这个例子中,Sensei GenAI发现,个人独自旅行的增加是目前的趋势。使用Firefly,Sensei GenAI生成了图像和文本,用于宣传独自旅行的许多冒险经历,并有具体的交易和行动呼吁。这个想法是利用内容和活动创建的速度和便利性,使个性化成为可行,以定制特定的买家,给定额外的输入,如来自旅行社自身客户数据库的特定客户资料数据。
从直接的技术和应用角度来看,这些基于生成性人工智能的进步被定位为解决一些以前无法解决的问题。然而,就像任何有用的工具和技术的跳跃一样,生成性人工智能可以用于生产目的,但也可以用于恶意的目标,各种担忧已经浮出水面,需要加以解决。
例如,正如人工智能生成的图像可用于大规模的个性化运动,它也可用于创建被称为深度假象的图像,描绘目标个人处于羞辱、非法或其他妥协的情况。在视频的情况下,它甚至可以被用来制作假的说话。这些只是当前生成性人工智能技术如何被坏人滥用的两个例子,就像随着技术成熟而出现的合法和有用的用例的爆炸一样,邪恶的应用也将同时出现。
虽然不一定是邪恶的,但另一个引起关注的暗示是这些更先进的人工智能可能会取代人类,并最终取代工作。在峰会的主题演讲中,Adobe的首席执行官Shantanu Narayen谈到了这种担忧,他认为人工智能的作用是提高人类的智慧,而不是取代人类,这种理念的作用是Adobe设计产品和解决方案的基本原则。
这种理念本身是值得赞扬的,但当它被应用于一个公司的产品战略的基本设计精神时,特别是像Adobe这样的公司,它可以产生极大的影响。Adobe是否能够在其人工智能解决方案中始终有效地渗透这一理念,还有待观察,但该公司在Sensei GenAI和Firefly方面肯定有一个良好的开端。
任何时候,不管是人类还是技术,只要有东西从婴儿期到成年,就必须建立道德、准则和界限。这些准则和界限通常会滞后于技术,因为要预测像生成性人工智能这样的基础技术将如何被使用是非常困难的。然而,鉴于生成性人工智能在世界范围内被释放得如此之快,以及它在许多使用案例中已经被证明是多么强大,在这种情况下,准则和界限甚至更落后。
Gupshup是一家以人工智能为动力的营销、商务和对话界面支持平台的供应商,其首席产品官Gaurav Kachhawa提出,领先的人工智能技术供应商可以通过几种方式帮助解决深度造假问题。首先是人工智能生成的内容要为人工智能生成的内容提供来源归属,在使用上类似于过去使用书目的方式。
另一种已经开始发生的方式是,公司可以为人工智能模型提供插件,然后由内容创作者甚至消费者调用,以限制人工智能产生其输出的来源。这个想法的背后是,人工智能模型的输入可以被限制在一个受信任的公司的数据上,理论上,这将使模型的输出更值得信任。
第三种方式是允许内容创作者对内容进行电子签名,为图像或视频的真实性提供证明,或以其他方式识别内容是人工智能产生的。Narayen在他的Adobe峰会主题演讲中同意这最后一种方式,并提出了一个基于内容创作者的签名系统,将其内置于内容生成产品中。
因此,Adobe成立了内容真实性倡议(CAI)。根据Adobe的萤火虫新闻稿,CAI "为可信的数字内容归属创建了一个全球标准。CAI在全球拥有900多个成员,其作用从未像现在这样重要。
Adobe正在使用CAI的开源工具推动开放的行业标准,这些工具是免费的,并通过非营利性的内容证明和真实性联盟(C2PA)积极开发。这些目标包括在图像的内容凭证中设置一个通用的 "不要训练 "的内容凭证标签,以便创作者要求他们的内容不被用于训练模型。无论在哪里使用、发布或储存,内容凭证标签都将与内容相关联。此外,人工智能生成的内容将被相应地标记。"
最后,需要制定立法和法规,其关键在于技术行业向世界各国政府提供必要的专业知识,以确保在制定政策时不仅了解技术,而且对立法的下游影响进行评估和相应处理。例如,在美国,技术领导人已被邀请参加总统科技顾问委员会,人工智能的风险和机遇是议程上的首要任务。
除了来自学术界的代表,著名的技术行业领导人,如AMD的Lisa Su博士、3M的John Banovetz博士、NVIDIA的William Dally博士、微软的Eric Horvitz博士和谷歌的CIO Phil Venables也是该委员会的成员。
无论最终实施哪种技术,历史已经反复表明,最成功的技术,最被坚持和利用的技术,是那些明确表明人们使用这些技术符合他们最大利益的技术,无论他们是内容创作者还是消费者。
例如,在数字签名和人工智能生成的内容识别方面,很明显,对于内容创作者来说,通过这些技术促进他们生成的内容获得尽可能多的信任符合他们的最大利益,因为如果他们被信任,消费者会更加依赖他们的内容。
有些人可能会争辩说,生成性人工智能的精灵被放出魔盒太早,应该被放回去。不幸的是,现实是,现在为时已晚。
领先的技术公司现在有责任不仅成为技术领导者,而且还要带头帮助提供解决方案,不仅为这项技术的商业和用例应用,而且为其道德使用,或者至少提供工具,让消费者和内容创作者都能负责任地使用这项技术,并帮助立法者更好地理解这项技术的影响,以及如何最好地将其纳入一个治理的、文明的社会。