权限被故意泄露,OpenAI暂停Sora访问

访客5个月前新闻资讯135

一直被外界寄予极高期望的OpenAI文生视频AI模型Sora自今年2月首次展示以来,就没有任何关于何时正式发布的消息了。当地时间11月26日,一些据称参与了Sora测试的艺术家泄露了该模型的访问权限(API),以抗议OpenAI对他们的压榨行为。

当日,公共AI模型社区Hugging Face突然出现了一个文生视频的项目。项目团队使用他们的身份验证令牌(可能来自早期访问系统)创建了一个前端,让所有Hugging Face的用户可以使用Sora生成视频。

通过这一前端,用户可以通过输入简短的文字描述来生成分辨率高达1080p的10秒视频。但项目创建三个小时后,OpenAI就关闭了所有艺术家对Sora的早期访问权限。目前该项目已无法使用。在短短的三小时内,用户通过这一项目生成了87个视频并发布了出来。

目前OpenAI并没有公开确认所谓的Sora泄露是否属实。但是OpenAI强调,参与其“研究预览”是“自愿的,没有义务提供反馈或使用该工具”。

OpenAI暂停Sora访问权限这一举动也暴露出AI行业的透明度问题。随后,该艺术家团体发布了一个公开信网站,鼓励任何与他们有相同观点的人签署这封公开信。截至发稿,这封信已经收到550个签名,包括马斯克。

艺术家们怒了

当地时间11月26日,一小群参与Sora测试的艺术家在Hugging Face泄露了Sora的访问权限,以表达对OpenAI的不满。项目团队使用他们的身份验证令牌(可能来自早期访问系统)创建了一个前端,让所有Hugging Face的用户可以使用Sora生成视频。

此前,OpenAI向数百名艺术家开放了Sora的早期使用权,以测试这款新的AI视频生成器。但部分艺术家认为,OpenAI利用了他们的无偿劳动,并利用他们来提升公司形象。

为引起外界对OpenAI这一行为的关注,他们在公共AI模型社区Hugging Face上发布了一个在线项目,允许公众使用Sora生成视频。

随项目同时发布的还有一封言辞激烈的公开信。在信中,艺术家们将OpenAI比作“中世纪的封建领主”,谴责他们利用了艺术家的无私贡献,却并没有给出合理的报酬。“我们获得了Sora的使用权,并承诺成为早期测试者、红队成员和创意合作伙伴。然而,我们认为,我们被引诱进行‘艺术洗白’,以告诉世界Sora对艺术家来说是一个有用的工具。”

这封信充斥着对OpenAI的不满,艺术家们写道:“我们不是你的无偿研发人员。我们不是你的免费错误测试人员、PR(公关)傀儡、训练数据和验证令牌。”

尽管参与模型测试的艺术家有数百名,但只有少数作品进行展映,而且报酬极为有限,与OpenAI获得的巨大公关和营销价值相比,简直是微不足道。更让这些艺术家们愤怒的是,“每个影片都需要OpenAI团队的批准才能分享。这个早期访问计划似乎更多关注的是公关和广告,而不是创作表达和批评。”

他们在信中强调,“我们并不反对将AI技术作为艺术工具使用(如果我们反对,可能就不会参加这个项目)。我们不同意的是艺术家项目的推出方式,以及该工具在可能公开发布之前的呈现方式。我们发布这个声明,希望OpenAI能变得更加开放,对艺术家更加友好,并在支持艺术方面不只是公关作秀。”

他们还呼吁其他艺术家使用开源的视频生成工具来抵制OpenAI这种闭源公司。“开源视频生成工具让艺术家能够在没有门槛、商业利益或服务于任何公司的公关目的下,探索前卫艺术。我们也鼓励艺术家使用自己的数据集来训练自己的模型。”

但在艺术家们上线Sora API项目后三小时,OpenAI迅速切断了访问权限。OpenAI发言人Niko Felix称,公司将暂停所有用户对Sora的访问,同时调查情况。但是他拒绝说明这个项目是不是真链接到了Sora模型。“Sora仍处于研究预览阶段,我们正努力在创造力与更广泛的强大安全措施之间取得平衡。”

Felix同时说道:“我们alpha版本的数百名艺术家塑造了Sora的发展,帮助确定新功能和保障措施的优先级。参与是自愿的,没有提供反馈或使用该工具的义务。我们很高兴为这些艺术家提供免费访问权限,并将继续通过赠款、活动和其他计划为他们提供支持。我们相信AI可以成为一种强大的创意工具,并致力于让Sora既实用又安全。”

AI研发被指缺乏透明度

在OpenAI暂停Sora访问权限后,该艺术家团体发布了一个公开信网站,鼓励任何与他们有相同观点的人签署这封公开信。

截至发稿,这封信已经收到550个签名,与OpenAI极其不对付的马斯克也在其中。

这次事件在AI行业中并不常见,因为早期测试人员的反馈受到公司的严格控制,而且严厉的批评很少公开。通常,公司会亲自挑选外部人员提前访问系统,在某些情况下,公司会要求这些用户签署保密协议或获得批准,然后才能公开分享系统生成的任何图像、视频或文本响应。

但最近,越来越多的AI安全专家批评这种做法对独立研究产生了寒蝉效应,降低了透明度,并阻碍了对公司行为的问责。斯坦福大学的基础模型透明度指数显示,没有一家主要的基础模型开发商能够提供足够的透明度(最高得分54分,满分100分),这揭示了AI行业缺乏透明度。

OpenAI的员工此前也指责公司强迫员工签署“封口协议”,不允许离职员工发表对公司的负面言论,否则公司可以收回员工已有股权。离职员工也不得对外公开这些协议内容。

为此,今年6月,OpenAI以及谷歌DeepMind的一批员工联合发布了一份名为《对AI发出警告》的公开信。

公开信预警,AI技术存在加剧不平等、操纵和误导信息,失去控制并威胁人类的风险。AI公司技术迭代的同时产生了大量安全相关的非公开信息,它们没有主动披露的动机。监管部门对此难以形成有效制约,只能由现任或前任员工要求它们向公众负责。

上述员工在公开信中对包括OpenAI在内的AI公司提出了4点呼吁:⒈不强迫员工签订禁止批评公司的协议;⒉为公司现任和前任员工提供匿名的安全反馈机制;⒊允许现任和前任员工向董事会、监管机构、其他安全机构提出对公司技术安全的担忧;⒋公司不对公开分享风险相关机密信息的现任和前任员工进行报复。

正如Hugging Face的一则评论所说,“AI并非凭空而来。它建立在创意人员的肩膀上,而这些创意人员往往没有得到认可。Sora泄密事件敲响了警钟:没有道德的创新就是剥削。”

相关文章

如何评价华为Mate 70系列?荣耀CEO赵明:一如既往的强大,但有信心做得比它更好!希望能够友好的碰撞

新浪科技讯 11月27日下午消息,荣耀CEO赵明今日开启直播,对于怎么评价华为Mate 70系列的问题,他表示,一如既往的强大,但有信心做得比它更好。“看到了华为的创新能力,荣耀独立后走上了截然不同的...

传相宜本草违规添加有毒原料“犁头尖”,四年相关产品销售金额6亿!客服回应:会向相关部门反映情况

12月19日上午消息,有媒体消息称,上海相宜本草在其10余款护肤产品内违规添加一种名为“犁头尖”的有毒中草药,四年间相关产品的销售金额约6亿元。...

交通运输部昨举行专题新闻发布会有序推动无人车、无人机示范应用

12月3日,交通运输部举行专题新闻发布会,介绍交通物流降本提质增效有关情况。物流业是实体经济的“筋络”,有效降低全社会物流成本对于构建新发展格局、实现经济社会高质量发展具有重要意义。《》记者在新闻发布...

智能眼镜发展要汲取 智能手机的经验教训

证券时报记者 陈霞昌一家接一家的企业发布新款产品,发布会场面宏大,创始人豪言壮语,产品功能眼花缭乱,智能眼镜的景气堪比10年前的智能手机。有研究机构统计,目前国内有超过50个团队已经或者即将推出智能眼...

重磅发布|“数字媒体前沿译丛”成果发布会召开

12月17日上午,“中国社会科学院大学文库·数字媒体前沿译丛”成果发布会在中国社会科学院大学良乡校区举行。来自新闻传播学界、出版界的专家学者齐聚小院,共同见证“数字媒体前沿译丛”五本译著的成果发布,探...

和讯研究员靳文云:防守一波还是放手一搏?

  和讯财道投研团队:靳文云    执业证书:A0030624030024  11月26日,和讯研究员靳文云在今日市场分析中指出,市场每一轮快速上涨后,都会经历一段煎熬的震荡市,如...