据9月21日消息,周三,微软发布了其新图像生成器DALL-E的预览版,该生成器可以根据书面提示生成图像。 同时,还计划将其集成到流行的聊天机器人中。 随着立法者呼吁对生成人工智能施加更多限制,这项有争议的技术的应用范围不断扩大。
这款名为 DALL-E 3 的新工具能够更好地理解用户命令并将文本转换为图像,这是之前 AI 图像生成器的缺点。 研究人员表示,该语言的进步使 DALL-E 3 能够更好地解析复杂的指令,并避免混淆详细请求中的元素。
“普通用户可以登录聊天机器人并询问一些模糊的问题,”DALL-E 3 团队负责人 ( ) 说道。 在演示过程中, 分享了一个关于一位名为“拉面公司测试不同标牌场景的示例”的企业主的故事。
虽然新工具目前仅可用于少数用户的早期测试,但计划在 10 月份向付费订阅者提供,从而显着增加与该技术交互的人数。
面临着越来越大的竞争压力。 谷歌推出了一系列人工智能驱动的产品,导致 DALL-E 及其旗舰聊天机器人的流量和月度用户增长放缓。 但通过将其新颖的图像生成器集成到 中,它正在扩大市场,并将该技术用作聊天机器人的一项功能,而不是一个独立的产品。
该公司公共关系主管 Hyde- 表示,记者无法在新闻发布会上测试该功能,因为 DALL-E 3 在发布时仍然存在一些故障。 不过,后来有消息称,DALL-E 3 将在周三发布时稳定下来。
此前推出的DALL-E 2和其他文本转图像生成器很早就吸引了用户,为公众提供了无需技术技能即可掌握高级软件功能的机会。 广告商、营销人员、政治家和视频游戏开发商都在利用这些工具进行营销活动。
然而,根据数据分析公司的数据,DALL-E工具的在线访问量已经放缓,从2023年3月底层技术升级时的峰值3200万下降至8月份的约1300万。
虽然文本到图像人工智能技术的未来存在不确定性,但其发展几乎没有限制,这引发了人们的担忧,即其生成逼真图像的能力可能会产生巨大的社会和政治影响。
旧版本 DALL-E 生成的街道标志和文字显得杂乱,因此很容易识别 AI 生成的图像。 然而,DALL-E 3 的改进使得外行更难识别图像的真伪。 “你不能再相信自己的眼睛了,”加州大学伯克利分校教授 Hany Farid 说,他是数字取证专家,与 Adobe 合作支持内容真实性计划。
Farid 强调,DALL-E 3 的改进并不令人意外,因为人工智能每六个月左右就能更好地模仿现实世界。 他呼吁利用先进技术将人类创造物从人工智能中消除。
竞争对手 AI 面临 和 Getty 的诉讼,指控训练生成型 AI 模型所需的大量互联网数据构成版权侵权。
执法机构、监管机构和倡导团体最近开始关注这些工具的使用,例如制作深度伪造的成人内容以及为即将到来的总统选举制作人工智能广告。
DALL-E 3 团队表示,他们优先考虑了这些风险,并邀请了外部专家组成的“红队”来测试最坏的情况,并将他们的经验纳入公司的应对策略中。
对于 DALL-E 2,该过程的详细概要已在系统卡中发布,其中详细介绍了 AI 模型的开发、微调和安全测试的公共说明。 政策研究员 表示,计划在 DALL-E 3 向公众开放之前发行类似的卡。 作为 6 月白宫峰会自愿承诺的一部分,各方同意开发和部署预防机制,用于识别人工智能生成的视频或音频内容,指示通过图像水印或编码等方法创建内容的服务或模型。源数据。 表示,DALL-E 3 正在试验一种分类器,可以查看图像的来源或内容的“来源”,白宫承诺中提到了这种方法。
开源模型库公司 Face 的研究科学家、谷歌道德人工智能部门前联合负责人玛格丽特·米切尔 ( ) 表示,这些机制可以帮助识别 ,还可以帮助艺术家追踪他们的作品是否未经授权进行处理。 用于在同意或补偿的情况下训练模型。
“这不一定符合公司的利益,但我认为这符合更多人的利益,”米切尔补充道。