首页 > > 24

新任谷歌AI负责人:希望谷歌创造更多AI模型

2018-05-10
来源:新浪科技
   杰夫·迪恩
 
  北京时间5月10日下午消息,大约在一个月之前,有消息传出苹果挖走了Google AI的总负责人约翰·詹南德雷亚(John Giannandrea),很快Google Brain研究部门的负责人杰夫·迪恩(Jeff Dean)取代了约翰的位置。在AI继续扩展到谷歌的所有产品和服务,以及公司打算把AI融入到自己的部门中时,这位谷歌的老员工以AI总负责人的身份接手了工作。
 
  Google Research最近甚至还改名为Google AI。
 
  周二,随着公司推出了数十项新功能和更新——包括针对移动应用开发商的ML Kit、第三代张量处理单元芯片的计划,以及可以代表用户打电话的AI谷歌智能助理——迪恩分享了他自己对未来的看法。
 
  迪恩看到了用AI开发新产品,并为人类从未考虑过的问题寻找解决方案的机会。
 
  他还看到了来自AutoML的挑战——可以创造其他AI模型的AI模型,并且,他也不认为谷歌应该涉足自动化武器的开发。
 
  一般智能AI的兴起
 
  当今世界上大部分的AI都是用来完成一个单一的狭义使用案例,比如把一个句子从一种翻译到另一种语言。但迪恩表示,他希望谷歌创造更多的AI模型,以实现多任务以及一种“关于世界的常识推理”。
 
  他说:“我认为,未来,你可以看到我们推出更多模型,这些可以模型可以做很多很多的事情,然后在此体验之上进行开发,这样,当我们需要训练一个模型做其他事情时,它就可以在现有技能和专业知识的基础上进行扩展。”
 
  比如,如果一个机器人被要求拿起某些东西,它将会理解诸如手的运作、重力的运作以及其他对世界的认识这些东西。
 
  “我认为,这将是你在未来几年能看到的一个重要趋势。”
 
  AutoML的偏见和看不见的挑战
 
  根据你提问的对象,谷歌的AI——AutoML——可以创建其他或神奇或可怕的AI模型。
 
  可以训练机器的机器无疑使反对AI的那些人感到惊恐。但是谷歌云计算首席科学家李飞飞表示,AutoML降低了为所有人开发自定义AI模型的壁垒,不论是高端开发人员还是普通的日本拉面馆老板。
 
  迪恩觉得这十分令人激动,因为它可以帮助谷歌“自动解决问题”,但是AutoML的使用本身也带来了独特的问题。
 
  “因为我们是使用的系统比传统那类编程出来的软件更加智能,我认为这可能会为我们处理的事情带来更多挑战,”他说,“比如一个问题就是,假如你利用数据进行学习,而那些数据本身具有偏见,那么从这些数据中学习的这些机器学习模型本身也会存在偏见。并且,我们在做的工作也有很多,机器学习社区里的很多其他人也试图想弄清楚我们以何种方式训练机器学习模型才能避免偏见。”
 
  另一个挑战:如何适当地借助AutoML设计安全关键系统来为其他如医疗健康等行业开发AI。计算机科学的最佳实践已经为编程这样的系统奠定了基础,那现在我们也需要为制造机器的机器奠定这样的基础。
 
  迪恩说,识别宠物狗出差错是一回事,在安全关键系统中出错则完全是另外一回事。
 
  “我认为这对我们来说是一个非常有趣且重要的应用方向,特别是当我们开始在更为安全关键的系统中进行机器学习时,比如针对您的医疗健康或自动驾驶汽车进行决策时。”
 
  注重安全的AI需要更多透明性
 
  除了谷歌智能助理很快可以为您打电话,以及Android P测试版的发布,首席执行官皮查伊在周二的开发者大会上还谈到了谷歌如何将AI应用于医疗健康领域,根据电子病历卡提供的信息预测患者在入院清洗。
 
  谷歌研究人员周二发布的一篇文章中,解释了一些例子,比如为什么谷歌的AI可以根据患者做某些决策,然后医生可以看到病历卡建议背后的推理。未来,迪恩希望那些希望知道AI为什么做这样一个决策的开发人员或医生可以就他们的疑问提问AI模型然后得到解答。
 
  迪恩说,如今,人工智能在谷歌产品中的应用正处于内部审核阶段。谷歌目前正在制订一套如何评估AI模型是否具有偏见的手册。
 
  “你需要的其实就是,就好比针对产品新功能的安全审核或隐私审核类似,你需要一个ML公平审核,这也是在把机器学习集成到我们产品中的一部分,”迪恩说。
 
  迪恩还说,当涉及到开发人员通过ML Kit或TensorFlow等工具实现AI功能时,人类应当参与到决策过程中去。
 
  与AI武器装备划清界限
 
  在对某个问题的回答中,迪恩说他不认为谷歌应该涉足自动化武器开发业务。
 
  今年3月份,有消息传出说谷歌正与国防部合作,改进对无人机收集到的镜头的分析。
 
  “我觉得针对机器学习和人工智能,存在很多十分有趣的道德问题,因为我们作为一个社会正在开发更为强大的技术,”他说,“个人而言,我曾在几个月前签署了一封公开信,表示我反对使用机器学习来实现自动化武器。我想,很明显,作为一家公司,我们应该做怎么的决策,我们是否应该向需要使用Gmail的军方提供这项服务?我觉得这个问题不大。其实,我想,大多数人应该是对使用自动化武器系统这件事感到不安。”
 
  根据《纽约时报》的报道,数千名谷歌员工已经签署了一封信件,声明谷歌应该避免“战争技术”的开发,这些技术可能会对谷歌的品牌以及公司与大众之间的信任带来不可弥补的伤害。但迪恩没有说他是否签署了纽约时报提及的这封信件。
 
  AI推动新的项目和产品
 
  除了患者再入院AI和一个用来理解摩尔斯电码的Gboard之外,皮查伊还强调了之前发布的AI研究,即可以像训练有素的眼科医生那样精确检测糖尿病性视网膜病变和预测疾病问题。
 
  具有这种智能水平的AI模型已经开始做除了模仿人类活动以外的事情。他们正在帮助谷歌发现新的产品和服务。
 
  “通过使用大量数据对这些模型进行训练,我们实际上可以让系统做更多我们不知道是否可以做的事情,这是一个非常重要的进步,”迪恩说,“我们目前正在开发一个全新的经由AI验证的测试和产品,而不是使用AI来完成我们觉得只要对系统进行训练就可以做的事情。”(小白)
[责任编辑:李振阳]
网友评论
相关新闻