人工智能世界的发展速度令人难以置信 ,不仅对于科技公司和华尔街投资者来说,而且对于立法机关来说似乎也是如此 。在版权领域尤其如此,那里似乎现有的法律像塑料刀片一样挥舞着 ,以应对刚浮出水面的AI的新浮出水面Leviathan。
至少这是我在查看欧盟司法,公民自由和机构事务部委托的最新研究论文(PDF)之后留下的图像,并由西班牙巴塞罗那大学庞贝·法布拉大学的N. Lucchi教授撰写(通过登记册)。171页的论文概述了当前的立法方法以及我们可能对此做些什么问题 。
该报告的指标量超过了这一点 ,但是主要的推力似乎是,目前的生成AI方法是基于在数字单一市场上应用2019年版权指令的第4条,它支持了一种选择的模型,该模型对保护版权无关。解决方案是将事物翻转为选择加入模型 ,至少在制定更健壮的事情之前。
问题在于,第4条本质上是为了提取和复制合法访问内容的授予,只要是出于文本和数据挖掘(TDM)而完成的 。该论文指出 ,第4条的范围最初是“故意狭窄的,是为了保持创新和保护作者和创作者的权利之间的平衡,”和“ TDM旨在从大量数据的分析中得出知识 ,而不是创造性的表达 ”。
但是,问题在于,生成型AI不仅使用TDM来获得知识 ,而且还以“接近复制行为相比,它比对分析行为更接近”,将其超出了第4条的意图。
第4条对AI的最新应用是用于捍卫其对TDM目的版权的材料的使用 ,本质上是选择退出的模型:如果您不喜欢它,则表示您不想刮擦和使用数据,否则我们默认使用了数据。
卢奇教授指出这是多么荒谬:
“选择退出模型假设复制是合法的,除非作者嵌入了机器可读的预订(robots.txt ,iptc,c2pa等) 。负担的反转有效地将静默视为同意。除非一本书的内容是可以自由地重现的,否则在每页上都可以自由地重复使用 ,这是可以自由地重复的,否则'''''''''''''''''''''''''''''''''''''''''''还是非在每个页面上都不受约物的范围。
因此,如果这是问题 ,那么解决方案是什么?据我所知,除了其他一些建议(例如,对现在可以正确应用第4条的更好的清晰度)外 ,欧盟委托的研究还建议三个至关重要的事情:恢复选择加入模型,同时获得更好的报酬,以及更好的保障措施和更高的保障措施和内容可怜性 。
Lucchi解释说:“如果没有这个三合会 ,则可以确保法律清晰,公平的赔偿和可验证的透明度,也无法实现法律连贯性和可持续创新。”
其中第一个当然是最引人注目的(这是我想拳头拳击空气,只是一点) ,因为当前的退出模型确实有点像我的鼻孔“沉默作为同意 ”模型。但是,卢奇(Lucchi)解释说,选择加入将只是“在发展更多系统性改革的同时保持法律连贯性的必要措施” 。
在此之前 ,建议通过标准化退出信号以一种可以在AI代堆栈上下执行的方式来改进退出。即,从CMS供应商到大学的分析研究人员和AI开发人员本身,它应该在各个层面上都可以执行。
Lucchi还建议 ,与此同时,在退出模型下,应允许生成AI使用受版权保护的材料(对于培训生成AI系统的特定目的 ,应有“新的EU级法定例外”) 。但是,除了这个例外,我们还应该拥有“为在这种培训中使用的作品使用的作者和正确薪酬者的公平薪酬权利。 ”
换句话说 ,应支付每家工作的版权持有人,以付给AI代进行培训。
该研究提出的最终至关重要的事情(在许多其他建议中)是越来越更好的保障措施,包括执行AI水印,指纹和过滤 ,以及对内容平台的选择退出标志的要求,以及我个人喜欢的配额,以显示人工制作的内容:
“欧盟应探讨基于配额的内容的优先级或可见性保证 ,以保证“人为作品”“从视听媒体法的既定工具中汲取灵感,以保护文化多样性和民主多元化” 。
因此,大概是Google(例如)必须在搜索引擎结果页面(SERP)中对其写入的结果进行配额。我将配额设置为99% ,但这就是我。
还有很多推荐的建议,而且还有更多详细的建议,但是对我的主要收获是 ,欧盟可能希望认真解决AI对版权的威胁。作为一名在线记者,我当然有些偏见,但我会说这是一件好事 ,不是吗?
本文来自作者[六员侍]投稿,不代表祖恩号立场,如若转载,请注明出处:https://www.zone-science.com/a/89.html
评论列表(3条)
我是祖恩号的签约作者“六员侍”
本文概览: 人工智能世界的发展速度令人难以置信,不仅对于科技公司和华尔街投资者来说,而且对于立法机关来说似乎也是如此。在版权领域尤其如此,那里似乎现有的法律像塑料刀片一样挥舞着,以应对...
文章不错《欧盟委托有关生成AI和版权的研究表明,推翻了当前的退出方法,“有效地将沉默视为同意”》内容很有帮助