
正常社交电商模式与传销的合理界限,应从形式特征和实质性社会危害两个角度来界定。消费者的权益是否得到妥善保护是一个重要的区别。
在智联招聘等平台上的简历,给钱就可以随意下载,大量个人信息流向黑市;万店掌、优洛客、亚良科技、瑞微信息等门店监控技术公司等门店监控技术公司擅自抓取人脸信息;手机清洁软件对待老人 推入诈骗深渊……今年央视“3.15”晚会曝光了这些侵犯消费者权益的行为。
这些案例表明,在数字时代,消费者权益保护面临新命题、新挑战。
3月15日召开的中央财经委员会第九次会议研究了促进平台经济健康发展问题。会议强调,要加强平台内市场主体权益保护,督促平台企业承担产品质量和食品安全保护责任,维护用户数据权和隐私权,明确劳动保护平台公司的责任。
当晚,由国家市场监督管理总局制定并发布的《网络交易监督管理办法》也在“3·15”晚会现场正式发布。《办法》是贯彻落实《电子商务法》的重要部门规章,细化完善了相关法律法规,制定了一系列具体的制度规范,规范交易行为,压缩平台主体责任,保护消费者权益。权益。
一方面,直播、社交电商等新型电子商务层出不穷。电子商务经营者的身份认定和责任义务的合理界限变得模糊,甚至一些电子商务经营模式的法律和违法界限也模糊不清。问题。另一方面,大数据、人工智能等新技术带来了侵犯消费者权益的新手段,亟需弥补监管的短板。
21世纪经济报道记者采访了北京大学法学院副院长、北京大学电子商务法研究中心主任、国家市场监督管理总局法律顾问薛军教授,请他谈谈义务保护电子商务新消费者的权益。为什么要防止人脸信息的滥用,以及如何规范大数据成熟度、算法判别等问题。
数字时代的“数字无障碍”
《21世纪》:社交电商是一个庞大而模糊的电商业态。由于强大的社交属性,这种商业模式与传销的界限并不明确。保护消费者权益有什么用?挑战?
薛军:社交电商借助挖掘各种熟人链条所包含的商业价值,利用分散的私域流量和口碑推荐的模式,赋能中小企业获得商机。
但国内关于传销的立法,尤其是2005年《禁止传销条例》所采用的规范模式,在实践中往往被以明显的形式主义解释,即只要相关行为是客观存在的所谓特征“拉人头”、收取入场费、团队报酬等构成传销,应予惩处。至于具有相关特征的行为的具体社会危害,往往被忽视。
这导致近年来很多社交电商公司因涉嫌传销被查处。例如,广州华戴吉网络科技有限公司近日被没收违法所得754万元,罚款150万元。事实上,2019年,《花的日记》被没收6.58万元。这两个决定的差距非常大,罚款金额接近“10%折扣”,这在一定程度上反映了监管者在把握社交电商模式合法性方面的困惑。
在我看来,正常社交电商模式与传销的合理界限应该从形式特征和实际社会危害两个角度来界定。消费者的权益是否得到妥善保护是一个重要的区别。如果终端购买者以正常价格购买商品,且用户方的退换货等消费者权益得到充分保障,在这种情况下,采用何种模式分配相应的销售佣金的可能性不大。造成社会问题。不会有受害者群体。
《21世纪》:用户评论是电商重要的信用机制,有利于保护消费者权益,但部分平台故意“隐藏”差评,让不少消费者在购物时不知所措。这应该如何监管?
薛军:电子商务信用评价机制要有效,必须保证用户评价得到充分有效的沟通。任何对用户评论内容的不当干预,无论是呈现方式的操纵,还是内涵模糊的所谓“感觉差”,都不是一个合格的信用评价体系。国家市场监督管理总局发布的《网络交易监督管理办法》(以下简称《办法》)第十四条还规定,网络交易经营者不得采用误导性展示等方式,积极前面的评论和后面的负面评论,或 对不同商品或服务的评价没有明显区别。
当然,现实中的情况非常复杂。随着信用评价体系的建立,出现了所谓的专业差评,以威胁不良商家,勒索平台商户。这种行为也需要严厉打击。对于不属于用户评论且无助于增加潜在消费者对相关商品或服务的了解的信息,可以使用屏蔽等技术。这当然是合理的。上述措施还提到,消费者评论中含有法律、行政法规、规章禁止发布、传输的信息的,网络交易经营者可以依法进行技术处理。
总的来说,能否充分有效地传达用户评价是评价电子商务信用评价机制是否合格、适当的唯一标准。在满足该标准的基础上,筛选出违法噪声也是本系统有效运行的保障。
《21世纪》:前不久,有媒体报道称,部分城市老年人因无法使用智能手机,乘坐公交车、地铁等公共交通工具时无法按要求出示健康码,被拒绝乘坐公交车。面对智能数字时代的“适老”话题,您认为电商时代应该如何保障老年人的权益?
薛军:我国《老年人权益保障法》第三条明确规定:“国家依法保障老年人的权益。老年人有权得到国家和社会的物质帮助,享受社会服务和社会优待。有权参与社会发展,共享发展成果。“数字技术的发展不应成为屏蔽老年人社交生活的变相访问控制。在数字时代,还需要密切关注“数字无障碍”的现实问题。
数字可访问性的要求应作为数字时代的技术道德准则融入产品和软件的设计中。更醒目的字体、更简单的安装、更便捷的操作模糊控制算法c程序,这些适应老年人身体和认知状态的设计理念应该在数码产品中得到体现。数字无障碍的要求,无论是作为互联网公司积极追求的企业社会责任,还是作为强制性技术标准,在提供面向公众的App应用服务时,都应认真考虑。
《21世纪》:近期,尤其是疫情爆发以来,在线教育迎来爆发式增长。但是,该领域侵犯消费者权益的问题也十分突出。您认为应该如何加强监管?
薛军:目前这个领域的虚假宣传问题比较突出。一些不具备相应能力和资质的教师被包装为名师。学生和家长发现后,无法有效维权。此外,还有过度营销的课程。一次售出数百节课,以折扣价吸引学生家长。预付款到账后,不可退还机构倒闭问题屡屡发生。
由于中国家长非常重视孩子的教育,愿意省吃俭用,为孩子的教育投资,一旦在线教育机构倒闭、跑路,很容易引发群体性事件。
为了解决这个问题,在线教育平台还是需要做好培训师的资质审核,防止造假。相应的培训师需要公示其教师资格和相应的文凭。相关部门还应建立相应的后台数据库,让用户能够验证相关证书的真实性。
在培训费用的收取方面,可以采用类似于第三方担保交易的模式。相应的培训费用进入第三方监管账户,根据课程流程和学员家长的确认缴费指令划入培训机构账户。避免在线培训机构通过集中课程营销在短时间内获取大量培训费用,方便日后出现问题及时止损。
在线教育行业也需要建立标准化的行业标准,对在线教育运营流程、如何规范运营等主要问题提出要求,以利于优胜劣汰,避免不良行为的发生。币驱逐良币。
人脸信息泄露后果更严重
《21世纪》:目前,人脸信息的不当收集和过度滥用已引起社会广泛关注。您认为应该坚持什么样的监管原则?
薛军:这么多个人信息,为什么要特别关注人脸信息?这与人脸信息的特点密切相关。首先,作为生物识别信息,人脸信息一般伴随人的一生,无法改变。一旦泄漏,就很难补救。其次,即使是生物识别信息,面部信息与指纹、虹膜、基因等生物识别信息也存在重要区别。人脸信息不是私密的。隐藏在任何角落的高清摄像头可以轻松捕捉到他人清晰的人脸照片,然后上传到人脸信息库进行比对,从而快速识别相关主体的身份。而这一切都可能在相关方不知情的情况下发生。从这个角度来说,
我认为如果一定要使用人脸识别进行身份验证,必须满足必要的条件。例如,在进入高度机密和特别重要的场合,需要绝对杜绝冒名顶替者时,使用人脸识别是合理的。但是,在进入自己的社区或其他营业场所时,使用人脸识别的必要性与可能存在的风险不成比例。从法律上讲,未来可能需要一种可选机制,允许相关个人选择不使用人脸识别方法进行身份验证。
《21世纪》:当一些应用过度收集个人信息时,将“用户同意”作为“盾牌”是否合理?
薛军:关于个人信息的收集,用户的“同意”不是运营商覆盖全球的盾牌,也不是任意行事的借口。
第一,个人信息保护属于自然人基本人格权的保护。因此,与个人信息保护相关的法律规则具有相当多的强制性法律特征。这些规则不会因为当事人的同意而改变,必须遵守。我国《消费者权益保护法》、《网络安全法》都强调经营者和网络经营者“收集、使用个人信息应当遵循合法、公平、必要的原则”。此规则为强制性规则。对于过度收集个人信息的违法行为,即使用户在安装App时点击“同意”,
其次,即使用户在安装App时点击了“同意”,也不能解释为对App运营商所有个人信息收集行为的有效授权。个人信息保护领域的用户同意是一种具有严格含义的“知情同意”,即基于应用运营商对个人信息收集条款的意图、目的和范围的明确说明。在明确告知的基础上,用户的同意即为有效同意。如果运营商给出的相关表述含糊不清,一般用户根本无法理解其含义,则不是合格的通知。这种所谓的一揽子授权协议在很多情况下没有法律效力。
《21世纪》:您如何评价基于收集用户个人信息的大数据?
薛军:如果用一个相对中性的词来形容所谓的大数据熟人,其实就是交易的一方利用交易对方的信息,进行个性化、差异化的定价。随着互联网信息技术的发展,消费者数据的海量采集和业务数据处理利用能力的飞跃,让差异化定价不再困难。因此,从理论和逻辑的角度来看,在未来的商业实践中,商家采取差异化定价策略的情况会越来越普遍。
那么这种做法是否构成对消费者权益的侵犯?对此,学术界有完全不同的理解。我认为大数据很熟悉。如果可能存在一些法律问题,那就是企业收集用户的个人信息并使用这些信息对用户进行数据分析是否合法合规。我国相关立法和标准明确规定,收集、存储和使用消费者个人信息需要征得用户同意。此外,对数据肖像的使用设置了严格的限制条件。无论如何,利用大数据技术分析特定用户的消费习惯,进行差异化定价模糊控制算法c程序,应当仅限于用户知情同意,并在法律允许的范围内。否则,
建立算法社会评价机制
《21世纪》:与大数据的担忧类似,人们也担忧算法是否会造成歧视。电子商务领域应该如何规范算法?
薛军:由于信息技术的发展,人们已经可以通过收集和处理大数据来规划和安排社会生活中的很多事情。这样不仅可以提高效率,还可以让判断更加准确。例如,电商平台可以根据商业大数据确定商家在搜索结果中的排名,以追求最高的用户点击率购买率,最大化平台的GMV(总营业额)。因此,随着大数据技术的不断进步,算法的使用势必会越来越广泛。在带来各种好处的同时,算法的使用也带来了很多问题。数字时代要高度重视算法监管。
《电子商务法》第十八条第一款规定:电子商务经营者根据消费者的爱好、消费习惯等特点向消费者提供商品或者服务的搜索结果的,还不得向消费者提供个人信息。 . 特色选择,尊重和平等保护消费者的合法权益。也就是说,在搜索结果的呈现方式上,平台必须同时公开自然搜索结果和定制搜索结果,以保护消费者的合法权益。
该规定的目的在于对算法进行具体规定,即通过法律强制规定的不同算法结果的公开,提醒消费者其获得的搜索结果具有“定制化”属性。这样可以间接限制操作者,减少单方面操纵交易的可能性。这相当于保护了消费者的知情权和选择权。
《21世纪》:算法监管的原则应该如何确立?
薛军:算法本身就是一种技术,算法运营商赋予它灵魂和价值选择。因此,算法问责和监管的基础仍然是将算法运营商置于监管的中心。具体来说,算法运营商必须对算法造成的实际问题负责。
作为一个初步框架,算法监管可能需要包括以下几个要素: 第一,对可以使用算法的场景建立审慎的评估体系。对于涉及公民重要权益的场合,如刑事诉讼、量刑等领域,如果要使用算法进行决策,则需要更严格的控制和审查机制。
二是建立社会评价机制,对算法的使用是否产生不良后果进行持续跟踪研究。如果社会评价机制有充分理由认定使用特定算法导致不良后果,则应启动问责机制,并要求相应的算法运营商进行解释说明和优化。
第三,将责任机制覆盖到算法领域。在司法和行政概念上,需要将算法作为算法操作者行为的延伸。无论运营商是否有过错,是否存在行政违规等,算法因素都应纳入问责考虑。
请登录后发表评论
注册
社交帐号登录