隋唐演义

隋唐演义

阿里类chatgpt产品正在内测 chatgpt手机版在哪可以下载

双十一 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

阿里类ChatGPT产品曝光 已进入内测阶段,阿里类ChatGPT产品,阿里系列产品,阿里 tcc

以下文章来源于君合法律评论 ,作者黄荣楠 马钦奕

君合律师对法律实务、立法动态和热点法律问题的评析与探讨。

作者丨黄荣楠 马钦奕

来源丨君合法律评论

目录

一、【【微信】】的回答是“创作”行为吗?

二、【【微信】】生成的内容是作品吗?

三、使用【【微信】】生成的内容有法律风险吗?

【【微信】】于今年年初突然爆红全球!人们惊叹于它似乎无所不能的强大功能――即时回答问题、撰写和修改计算机代码、快速生成新闻报道、创作诗歌、甚至撰写情人节情书……一些专家已经在预测,以【【微信】】为代表的AIGC(生成式人工智能)无疑将改变未来。惊叹之余,【【微信】】的强大能力也不免让人们担忧,它在社会责任、政府监管、法律风险等方面的问题又应该如何解决?

我们近期已被不少客户咨询,是否可利用【【微信】】的回答内容出具调查报告、是否可以利用【【微信】】完成展览的策展方案等等。因此,我们觉得有必要借本文,主要从著作权法的角度,对【【微信】】为代表的AIGC可能带来的法律问题及相关风险进行探讨。

Q1. 【【微信】】的回答是“创作”行为吗?

“创作”的主体应当为自然人

根据各国普遍的著作权理论及司法实践,创作的主体应当为自然人,AI无法成为作品的作者。至少现阶段,如果没有立法的干预,AI不太可能成为受著作权法保护内容的创作主体和归属主体。

就本文而言,为了避免进入闭环论证(即,因为是AI不是创作的主体――所以AI生成内容不构成作品),我们在本文的后续讨论中先不考虑创作主体这一因素,而是聚焦于对创作行为本身的理解、【【微信】】的内容生成过程以及自然人在内容生成中参与的环节等问题。

认定“创作”需要从客观形式及主观方面两个角度考虑

我国《著作权法实施条例》第三条对“创作”进行了定义,“著作权法所称创作,是指直接产生文学、艺术和科学作品的智力活动。为他人创作进行组织工作,提供咨询意见、物质条件,或者进行其他辅助工作,均不视为创作。”该定义强调“创作”属于智力活动,并排除了组织工作、咨询意见、物质条件、辅助工作。而作品是指“文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果”。以此可见,对“创作”活动的理解需要立足于“独创性”进行考量。但是,关于作品“独创性”的认定,一直以来缺乏非常明确、清晰的标准,通常由司法机构结合内容的类型、“创作”的实际情况进行理解与判断。结合过去及现在的一些判断标准(包括:额头出汗标准(已成为历史)、最低限度创造性标准、有“技巧、判断或劳动”的投入标准、“反映作者个性”标准、“整体概念和感受测试法”)等等,我们认为“独创性”的“创作”涉及主客观两个方面:

(1)客观形式的判断,将产生“重复度”较高内容的工作及缺少智力投入的工作排除在外

例如,临摹者对原作进行精确的临摹,虽然也投入了技巧及劳动,但由于内容的高度重复性,不应当被视为创作新作品的过程。又如,老电影的修复工作,虽然投入大量的人力、物力,甚至也有“智力劳动”,但这个过程一般不会被视为“创作”。

在实践中,如果不同人对于【【微信】】的提问相似,那么较大概率上,AI生成内容可能出现重复性的答案,这一类的重复性的生成过程可以排除于“创作”行为之外。但是,如果指令设计有一定技巧,AI生成内容在表达层面理论上可能生成非重复性的答案,可能就难以通过客观形式的判断被排除。

(2)主观方面的判断,将作者的思想、创作过程,特别是创作意图纳入考量范围

并不是所有标准都将“作者”的个性投入放在最重要的位置进行考虑,但即使在淡化作品“人格属性”的美国,在认定创作要件时,“创作意图”也是判定作品的必要条件之一1。例如,知名的“猴子自拍案”,法院就认为猴子并无创作作品的主观意图,不满足作者的要求。尽管摄影师斯莱特换上广角镜头,设定了各种参数,将相机和遥控器固定在三脚架上,但由于这些操作并未实质性介入拍摄行为,因此也不能认定为“创作”2。

类推至【【微信】】上也类似,【【微信】】模型本身并无创作作品的主观意图,更毋论具有个性的投入,因为其是根据人类的指令执行任务。从模型构建的终极目标看,【【微信】】模型就是遵循人类下达的指令并作出尽可能合乎逻辑、自然语言表达性的回复,而不是为了加入个性化的内容。

(猴子自拍照,图片来源于网络)

因此,结合以上主客观的判断标准,我们认为【【微信】】生成内容的过程无疑会被排除在“创作”的范围外。

【【微信】】自己的“思考”

有趣的是,【【微信】】自己也得出了类似的结论(见下截图),认为“自己”并没有所谓的创作过程,仅是在算法和数据的基础上,利用自然语言处理生成回答。

(截图来源于我们与【【微信】】的对话)

Q2. 【【微信】】生成的内容是作品吗?

【【微信】】与普通创作工具(如画笔)的差别在于,其似乎具有高度的“智能性”,甚至人们仅输入只言片语就可以得到长篇的完整回复。于是我们有必要对其生成的过程及产生的内容做进一步分析。

关于【【微信】】对话内容的生成过程

1. 普通用户角度的生成过程

从普通用户角度,【【微信】】对话内容的生成过程非常简单,即“用户发出指令”――“【【微信】】反馈指令”(“指令――反馈”模式)。但不同于此前以往的一些AI,【【微信】】还能够连续回答问题甚至修正回复、承认错误、质疑不正确的前提和拒绝不适当的请求。

举例而言,我们在【【微信】】上为其准备了一道命题作文题“使用太极拳、律师、冉冉升起的炊烟、安静的氛围这几个元素创作一篇短篇小说”,【【微信】】就这几个看似关联度不大的元素生成了如下内容:

(截图来源于我们与【【微信】】的对话)

从该回复内容看,【【微信】】不仅遵循了我们的指令,同时其生成的内容具有的一定的文学性且逻辑完整,可以说已经达到了普通中学生的创作水平。并且,初步检索后,我们也并未在公开范围内找到相同或相似的表达内容,因此可以初步推测【【微信】】产生的内容并非是在简单复制或拼接。

在收到答复后,我们进一步向【【微信】】发出指令“是否可以加入一些科幻元素”,【【微信】】进一步回复如下:

(截图来源于我们与【【微信】】的对话)

我们进行了简单的对比,并以红框大体标出了其新增的内容。可以看到,随着指令的修正,【【微信】】生成内容发生了调整,并且从一般人的角度看,【【微信】】可以“理解”“科幻元素”的含义,并且将“科幻元素”与此前生成的答复进行了相对自然地衔接,而非机械拼贴。

从上述例子看到,在我们的此次尝试中,用户的角色仅是发布指令,虽然有再指令的操作,但再次提供的指令本身对表达的改变也不具有非常直接、具体到表达层面的引导性内容。类比绘画的过程,相当于用户仅是选择了绘画的基调/主题,但落到画面上却产生了细节构思、色彩、线条、阴影俱全的图画。那这幅图画又是怎么生成的呢?

2. 【【微信】】模型背后的原理

【【微信】】的“智能性”来源于海量的数据训练。如前提及的,【【微信】】仅是在算法和数据的基础上,利用自然语言处理生成回答。更具体而言,根据OpenAI 官网网站的说明3,OpenAI使用了“从人类反馈的强化学习”(RLHF)的机器学习技术训练【【微信】】模型,具体分为三步:

(1)收集反馈数据:从测试用户提交的prompt(即指令或问题)中随机抽取一批,靠专业的标注人员,给出指定prompt的高质量答案,然后用这些人工标注好的数据来微调(【【微信】】)GPT 3.5模型;

(2)训练奖励模型:通过人工标注对模型输出结果打分建立奖励模型,引导【【微信】】模型向高分方向完善输出答案;

(3)强化学习:采用强化学习来增强预训练模型的能力,以提高模型输出答案的准确性。

简而言之,【【微信】】是通过“预训练+微调”的过程,提升理解能力和交互性表现,从而更为精准地回答用户的提问。

(来源于OpenAI官网)

在该过程中,预训练的数据量越大,【【微信】】的“智能性”也越强。根据公开报道,从【【微信】】进化到【【微信】】-3的过程相当“烧数据”―参数量从1.17亿增加到1750亿,预训练数据量从5GB增加到45TB4。

【【微信】】生成的内容是否构成作品

需要明确,我们此处的讨论是立足于内容生成过程进行“应然”定性(即:基于【【微信】】生成内容的过程,分析生成内容是否可能构成作品),而非对外观上难以区分是否是人类创作还是AI创作的内容进行“实然”定性5。

结合我们的前述分析,人类的智力投入在【【微信】】内容生成过程中体现为:

(1)普通用户角度,发布指令(也包括再反馈指令或者否定答复);

(2)开发者角度,提供数据库或创作数据库答案,以及设定规则。

那么,这些投入是否会使得【【微信】】生成的内容被评价为作品?我们的分析如下:

1. 普通用户角度发布指令的过程,只有在极少数情况下,才会导致【【微信】】生成内容被评价为作品

从我们上述尝试指示【【微信】】创作短篇小说的例子看,我们发布的指令仅是简单的句子,“请你以如下元素创作一篇短篇小说:太极拳、律师、冉冉升起的炊烟、安静的气氛”。我们再次发布的新指令为“是否可以加入一些科幻元素”。我们在此过程中的智力投入无非是提到了“太极拳”“律师”“冉冉升起的炊烟”“安静的气氛”“科幻元素”这样的元素组合,提供的“创作”可以说极为有限。一方面,简单词汇本身并不构成作品;另一方面,词汇的筛选与组合背后虽有少量的灵感但也相对随机,较难被评价为具有“独创性”。

在国内的“人工智能著作权第一案”6中,法院也认为,软件的使用者仅在操作界面提交了关键词进行搜索,这种行为没有传递软件使用者思想、感情的独创性表达,不宜认定为使用者创作完成,使用者不应成为涉计算机软件智能生成内容的作者,该内容亦不能构成作品。

基于上述,我们认为,只有在极少数情况下(例如,用户在指令提交过程中提供了具体到表达的指示7,并且最终影响了【【微信】】的表达内容,操纵其形成了符合自己创作想法的内容),才有可能8使得【【微信】】生成内容被评价为作品。

另外一个衍生的思考:假设不同的用户巧合之下输入了类似的指示并且均认为自己的指令具有独创性,进而均主张享有【【微信】】生成内容的权利,应当如何认定?

据著作权法理论,如果真的可以证明内容“纯属巧合”,则创作人仍分别、独立的享有相应作品的著作权,彼此不受干扰。

【【微信】】开发者应该也意识到了该问题,在其用户协议9中如此表述:“Other users may also ask similar 【【微信】】he same response. Responses that are re【【微信】】d for other users are not considered your Content”。

【【微信】】的上述条款表述非常巧妙,对于巧合、互不侵权的情形,结合著作权理论,两位用户均可以享有Input及Output内容的权利;而对于存在侵权行为的情况下,由于不满足“遵守法律法规的前提”,OpenAI并不向侵权用户转让Output内容,也因此OpenAI将不存在侵权责任,侵权方仅为侵权用户10。

2. 数据库内的数据可能构成作品,但相关【【微信】】生成内容不应被评价为新的作品

如前所述,【【微信】】的“智能性”来源于其庞大的数据库支持。数据库内容的文本本身是可能构成作品的。例如,开发者预设了一些问题,并由自然人起草了回复的答案,回复的答案如果是创作者独立创作,则可以构成作品。但是,【【微信】】生成内容的过程,或是对数据库内相关基本语素组合,或者直接呈现了预先设置的某些答案。这些过程都是运用“规则”自动进行的,并不存在人类智力的介入。因此,即使数据库内的数据文本内容可能构成作品,相关【【微信】】生成内容也不应被评价为新的作品。

另外,开发者设定的规则也不会影响最终的结论判断。开发者设定的规则是通过训练奖励模型及强化学习实现的。根据著作权法的理论,规则本身属于思想的范畴,除非其可以以具象的表达形式体现。而显然,开发者设定规则对应的具体表达(例如代码),与【【微信】】生成内容在表达层面并不相同或实质性相似,开发者设定规则的行为并不会使得任一项【【微信】】生成内容被评价为作品。

3. 普通用户与开发者并无创作合意,即使极少数情况下普通用户发布指令的过程和/或数据库答案构成了作品,二者间也不属于合作创作

最后,假设极少数情况下普通用户的指令具有独创性,开发者创作或者来源于其他第三方的数据库答案均也构成作品,普通用户与开发者/第三方也不可能构成合作作者。

根据著作权法的理论,合作作品的创作需要合作作者之间进行合意创作。开发者在开发过程中虽然会设想用户可能询问的问题,但其在准备相关答案前并不是抱着合作创作目的准备的,其目的是尽可能实现用户的指令;而普通用户角度更无法预测开发者设定的数据内容。因此,普通用户与开发者不可能被认定为合作作者。

对于人工智能生成物的保护需要新思路

基于上述分析,依据现有的著作权理论,不论是基于主体考虑,还是基于人工智能生成物的生成过程考虑,人工智能生成物本身很难获得著作权法的保护。

但是,如果不给予其任何保护,是否会影响人们后续利用人工智能的积极性?有观点认为,应当考虑通过立法给予人工智能以著作权法保护,激励人们尝试用人工智能“创造”更多的知识,提升社会生产力。我们认为,对立法的修改还是需要谨慎,至少不宜调整“作品”“创作”的定性逻辑,可以考虑给予“邻接权”保护或者纳入虚拟财产保护,并制定特殊的归属、使用规则。

Q3. 使用【【微信】】生成的内容有法律风险吗?

回到本文最初客户问我们的问题,使用【【微信】】生成的内容是否存在法律风险?我们认为会存在,主要体现在如下方面:

【【微信】】生成内容的知识产权风险

如前述分析,【【微信】】生成的内容来源于其背后庞大的数据库。从OpenAI的角度,我们理解对数据库内的所有训练素材进行“清权”(clearance)显然是不现实的。另外,虽然【【微信】】生成内容可能存在相关素材的拼接、组合,但也不排除会有对相关表达直接呈现的可能性。如果该等表达未经原始著作权人授权而被使用,则存在侵权风险(对模型开发方、内容使用者均有风险)。虽然模型开发方、内容使用者可以视情况考虑以“合理使用”“公有领域素材”等进行抗辩,但也无法全面排除相关风险。例如,在Andersen v. 【【微信】】案11中,原告就认为Stable Diffusion(AIGC绘图软件)在未经许可的情况下,从互联网上收集了数十亿张图像上进行训练,包括使用原告所拥有的图像的行为,构成侵权。

【【微信】】开发方也意识到了该问题,在用户协议中提供了版权投诉渠道。并且,询问【【微信】】该问题后,其也“谨慎”地向用户提示了风险。

(截图来源于我们与【【微信】】的对话)

【【微信】】生成内容的合规风险

根据OpenAI的说明,尽管OpenAI已在努力让【【微信】】拒绝用户不合理的请求,但是【【微信】】还是可能会存在算法歧视和生成不当内容的风险,例如带有脏话、仇恨、歧视等言论,也可能生成暴力、血腥、*等违反法律以及公序良俗的内容。

从国内合规的角度,如果不经任何审核直接使用【【微信】】的相关内容,将可能引发《网络信息内容生态治理规定》《互联网信息服务算法推荐管理规定》等法律、法规、政策项下风险。

我国自2023年1月10日起施行的《互联网信息服务深度合成管理规定》也特别明确,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。

【【微信】】生成内容的个人信息及商业秘密泄露风险

用户为使【【微信】】满足个人和/或商业方面的需求,可能会在聊天框内提供个人信息或者企业的商业秘密。从目前的OpenAI条款看,其并未对用户Input内容提供特别的保护,相关内容将被授权用于“开发和改进服务”。因此,存在个人信息及商业秘密泄露风险。

结语

随着【【微信】】爆火,国内企业也纷纷加入AI领域竞赛,例如万众期待的百度文心一言(英文名:ERNIE Bot)推出后,爱奇艺、火狐、360等多家企业纷纷宣布接入12。

作为律师,虽然已被一些评论列入未来可能被AI替代的职业之一(笔者对此持保留态度),但是由于与【【微信】】等生成式人工智能相关的技术滥用、数据保护、舆论风险、侵权防范等问题层出不穷,可以预见律师在此领域的工作会更多,而并不是更少!

1. 该观点来源于《人工智能“创作”认定及其财产权益保护研究――兼评“首例人工智能生成内容著作权侵权案”》,作者冯晓青;潘柏华。

2. 参见 People for The Ethical Treatment of Animals,lnc V. 【【微信】】,(N.D.Cal.Jan.28, 2016)

3. 来源于:

4. 参考网站:

5. 该观点参考《论人工智能生成内容在著作权法中的定性》,作者王迁。王迁老师认为,应当区分“应然”及“实然”的定性。其认为,“不披露相关内容由人工智能生成时,该内容可能因具备作品的表现形式而实际收到了保护,但该现象是举证规则造成的,并不意味着著作权法因人工智能而改变”。

6. (2018)京0491民初239号

7. 即使用户指令本身构成作品,也不意味着【【微信】】生成内容可以被评价为作品。例如,某学生在【【微信】】对话框内输入其独立创作完成的论文,要求【【微信】】进行润色/翻译/校对,在“【【微信】】生成内容”这一环节,用户的指令本质是“润色/翻译/校对”,论文是已经存在的作品,这一指令的下达并不会产生应然角度的“新作品”(如第一部分分析,【【微信】】完成润色/翻译/校对的过程中,并无“创作意图”,不构成新作品)。除非在某些情形下,用户通过一条条指令逐一、细致修正【【微信】】完成的翻译内容,那这一条条指令的下达,可能被评价为创作翻译作品的过程。

8. 即使满足了前述情形,也未必会被认定为作品。例如,需要考虑表达是否具有唯一性、有限性。参考最高人民法院的(2016)最高法民申2136号民事裁定书,法院认为“本案中,孙某所主张的曲线图,系当事人根据客观的价格数据,通过使用WPS制表工具制作完成。鉴于图表所使用的数据客观存在,数量有限,WPS为通用软件,将上述数据录入制表工具所形成的结果,尽管属于孙某运用智力的结果,符合独立完成的要件,但该结果的表现形式有限,换言之,使用上述数据与工具所产生的结果缺少差异性。这种唯一或有限的表达方式,通常被排除在独创性之外。”

9.

10. 至少就条款表述的逻辑而言,OpenAI可以提出该主张。

11. Andersen et al v 【【微信】】 AI Ltd et al 3:23-CV-00201

12.

END


chatmoss和chatgpt区别 visual chatgpt使用方法

chatmoss怎么样,chatmoss好用吗,chatmoss如何退费,chatmoss安卓

ChatGPT是一款基于人工智能的语言模型,拥有着强大的自然语言理解能力,是目前最受欢迎的智能聊天机器人之一。但是,除了它的显而易见的功能,它还隐藏着一些你不知道的秘密。下面是关于ChatGPT你不知道的5个秘密:

chatgpt

1.ChatGPT不断学习,从未停止

ChatGPT是一种基于机器学习的模型,它不断地学习和改进自己的能力,以适应越来越复杂的语言需求。不同于一些传统的语言模型只是在特定数据集上进行训练,ChatGPT可以在全球范围内收集和处理大量的文本数据,并利用这些数据来完善自己的模型。

2.ChatGPT有丰富的人格特征

ChatGPT可以根据不同用户的需求和兴趣来调整自己的人格特征。它能够模拟不同类型的语言,包括幽默、严肃、聪明或感性等等。这使得ChatGPT可以根据不同的用户情况提供个性化的服务,增强用户的满意度。

3.ChatGPT能够理解语境和语义

除了简单的问答和对话功能,ChatGPT还能够理解更复杂的语境和语义。它能够理解语言的上下文,解决歧义问题,并根据情境进行适当的回答。这种语义理解能力使得ChatGPT能够更好地服务于用户,提供更精准的回答和建议。

4.ChatGPT不会保存用户数据

ChatGPT是一款保护用户隐私的智能聊天机器人。它不会保存任何用户数据,不会披露用户的个人信息和对话内容。这使得用户可以放心地使用ChatGPT,而不必担心隐私泄露的问题。

5.ChatGPT有着广泛的应用领域

ChatGPT不仅仅是一款简单的智能聊天机器人,它还可以在多个领域得到应用。例如,在医疗保健领域,ChatGPT可以为患者提供诊断和治疗建议;在金融领域,ChatGPT可以帮助用户进行理财规划;在教育领域,ChatGPT可以为学生提供个性化的教育服务。由于其强大的自然语言处理能力。

综上所述,ChatGPT作为一款基于人工智能的语言模型,不仅仅是一款智能聊天机器人,还具有丰富的人格特征、强大的语义理解能力以及广泛的应用领域等优势。同时,它还注重保护用户的隐私,不会保存用户数据,给用户带来更好的使用体验。未来,随着技术的不断发展,我们相信ChatGPT将会有更广泛的应用和更强大的能力,为人们带来更多的便利和惊喜。

举报/反馈