百川宠物医院网站建设 - 专业的宠物医院网站建设

资讯热点
人民网:Soul App设立管理机构,保护未成年人

发布时间:2022-10-30 分类: 行业资讯

2020年10月17日,人大十三届全国人大常委会第二十二次会议通过了修订后的《未成年人保护法》,将于2021年6月1日正式实施。修订后的《未成年人保护法》中专门增加的“网络保护”一章成为本次法律修订的最大亮点。专章从政府、学校、家庭以及网络产品和服务提供者等不同主体对网络素养教育、网络信息内容管理、个人信息保护、网络成瘾预防和网络欺凌预防等方面作出规定。

随着移动互联网的发展,未成年人使用手机接触互联网的时间和频率不断增加,移动社交平台的“毫无戒心”大大增加了孩子接触有害信息的机会。目前,我国在网络游戏和网络视频领域实施了防沉迷措施,但针对网络社会化和网络文学的防沉迷措施较少,相关领域成为监管的真空地带。

在网络社交产品已经成为青少年社会生活重要组成部分的前提下,社交产品的网络服务商应该如何具体保护未成年人?SoulApp是近年来备受关注的Z世代社交产品之一,Soul公司针对青少年的安全防护措施也引起了人民日报在线的关注。以下转载自SoulApp上的人民日报在线报道《持续治理网络生态未成年人网络保护更应关注社交软件安全》。

据SoulApp经理介绍,“Soul是记录生活和情绪,表达自我的平台。它鼓励真实表达,促进人与人之间的深度交流,让用户减少孤独,获得快乐。”制度上,SoulApp有专门针对青少年安全和体验问题的产品经理,实时监控未成年人保护机制的运行和未成年人内容过滤过程在社交平台系统中的运行情况。

在访问机制方面,18岁以下的股票用户自动进入“青春期模式”,不能自行设置退出。如果需要退出这个模式,用户需要上传自己身份证的照片,然后平台会手动查看自己是否18岁。通过这一措施,SoulApp避免了未成年用户借用他人身份信息改变个人年龄的可能性。

在用户的分级管理上,Soul严格区分未成年用户和成年用户,避免成年用户骚扰未成年人的可能。包括不对未成年用户开放“爱铃”“人脸基尼匹配”入口,只保留“灵魂匹配”功能,在特定功能中设置未成年人只能匹配未成年用户。

在用户内容发布层面,未成年人发布的内容需要经过系统过滤,也需要经过“未成年人保护”相关内容培训的审核员独立审核。

« 推荐收藏!小程序最实用的7大促销方法! | 高通华为签订长期专利许可合同的华为还禁止购买高通芯片 »