人工智能被滥用?个人数据要控制

热点专题 阅读(946)
?

& nbsp& nbsp& nbsp& nbsp& nbsp& nbsp& nbsp& nbsp& nbsp& nbsp& nbsp& nbsp& nbsp& nbsp& nbsp& nbsp& nbsp& nbsp      8月16日,全球人工智能企业家大会在深圳召开。本次会议的重点是“人工智能对话未来”这一主题,重点关注人工智能如何应用于各个领域和企业。在会上,包括育碧,欧比中光,库凯,高新,云逸,Vision和科达迅飞在内的数十家人工智能公司联合推出了《新一代人工智能行业自律公约》,称为《公约》,倡导人工智能技术的健康持续发展。

今年6月,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则发展负责任的人工智能》。这是中国首次发布人工智能治理原则,并提出了负责任的人工智能的发展。

中山大学数据科学与计算机科学学院教授赖建煌表示,目前的人工智能技术受到了滥用。例如,当用户浏览,搜索,在线购物和社交时,大量软件分析用户行为偏好。人脸识别技术也被滥用。他认为生物识别技术是私人的。为避免非法使用相关数据,他呼吁有关部门加强管理。

& nbsp& nbsp& nbsp& nbsp& nbsp为促进技术发展,许多公司联合推出《公约》,包括坚持以人为本,促进公正和公平,确保安全和控制,注重隐私保护,促进包容性共享,确保明确权利和责任,加强合作,提高行业标准等八个方面。例如,在促进公正和公平的过程中,提出从算法决策,编码设计和商业应用的不同方面提高人工智能算法决策的透明度,以确保人工智能的设计和应用。公平,合理和非歧视性的;情报应加强对数据的个人控制并防止数据滥用。

同一天,深圳人工智能行业协会发布了《2019人工智能产业发展白皮书》,涉及人工智能产业,技术,企业和道德领域。报告显示,国内人工智能产业初步形成了产业链,上游企业提供基本能力,中流企业将基本能力转化为人工智能技术,下游企业将AI技术应用于特定应用场景。截至今年6月,北京在全国拥有709家人工智能公司,在深圳排名第二,在相关公司中排名第六。平均建立期为4。42年,近70%集中在应用层。