ai时代英特尔在干什么(专访英特尔戴金权)

允中 发自 凹非寺量子位 报道 | 公众号 QbitAI

汉堡也能用大数据卖?

没错,而且可以卖得更好。

ai时代英特尔在干什么(专访英特尔戴金权)(1)

汉堡王就正在展开这样的实践,在他们的菜单显示屏,可以基于用户的点餐行为、背景信息,给出个性化推荐。

而且还能结合时间、地点、气候等因素……用户下单更省心,卖家业绩还更好。

懂技术的朋友或许早已看穿,背后必然有Transformer模型加持,但可能意料之外的是,实现消费级商用的精准推荐,汉堡王这套系统不光是单纯套用。

Transformer Cross Transformer(TxT),这是汉堡王推荐系统背后的核心模型技术。

此外,这套模型系统还是拿来就用的那种。

因为替汉堡王打造这套模型的,是一个名为Analytics Zoo的端到端平台,而这个端到端平台的打造者,是不常出现在“软件”新闻里的英特尔

但随着AI浪潮深入、数据和软件算法当红,这家过去以硬件夺目的公司,的那一面开始被更多注目。

而且这一面的代表人物,还是一位中国技术专家:

戴金权,英特尔Fellow、大数据技术全球CTO,大数据分析和人工智能创新院院长。

ai时代英特尔在干什么(专访英特尔戴金权)(2)

以及两大知名机器学习平台BigDLAnalytics Zoo的项目创始人。

但在戴院长看来,软件硬件只是技术的不同形式承载,背后更本质的趋势是数据

在量子位专访中,他还强调,在AI和5G作用力之下,数据洪流所至,软件在变,硬件更开放,过去按照软硬划分的疆界格局,变化已再明显不过。

英特尔的软实力

戴金权院长从大数据领域来举例。

他说英特尔在该领域的研发投入,核心是源自需求的驱动。

分为三个阶段:

第一阶段:存储和处理数据。

第二阶段:查询和分析数据,并且对于时延的要求越来越高,最终需要的是实时查询和分析

第三阶段:预测和推荐。

戴院长说,特别是在大数据平台上进行各种机器学习、深度学习的数据建模和预测,成为了当前非常重要的技术和应用方向。

而从产业应用上看,消费互联网领域,没有哪家互联网公司不在强化预测和推荐方面的能力。产业互联网一侧,也在追求更多业务数字化之后,能够展现预测和推荐之力。

比如一开始提到的汉堡王。

所以对于英特尔而言,在此基础上希望高举高打,提供一个大数据统一应用平台。

这种思路之下,诞生了BigDLAnalytics Zoo

ai时代英特尔在干什么(专访英特尔戴金权)(3)

特别是Analytics Zoo,作为开源大数据AI软件平台,核心要解决的就是帮助用户将机器学习或深度学习等算法模型,直接在分布式大数据平台上运行,而且可以做到无缝扩展。

没有这样的平台,路径就会曲折得多。

通常情况下,会先建立一个分离架构,并以大数据集群的方式访问和处理数据湖数据。

大数据集群处理之后,还可能需要深度学习集群把存储系统中的数据读取出来,再进行深度学习或机器学习处理。

那Analytics Zoo能带来什么不同?

可以提供一个统一架构来支持端到端AI流水线。

用户的数据还是存储在数据湖、数据仓库当中,可以运行在K8S上或Hadoop集群上,或者部分用户在云里面可能有几台虚拟机实例,就可以有一个集群,在这个集群上利用Analytics Zoo就可以把基于Spark的大数据分析和基于TensorFlow、PyTorch、BigDL或OpenVINO等这样的深度学习框架直接统一在一个架构中。

整个流程里,一方面可以可以大大减少中间数据传输的开销。

另一方面还能提升开发、部署和处理的整体效率。

这种效率的提升,戴金权引用了浪潮的实践效率——

以前可能需要几个季度才能开发完的一个应用,现在只需要两三个月就可以了。

端到端的开发效率,显著大幅提升。

而这种开发效率提升,在当前技术发展趋势下,戴金权认为更加关键。

一方面是无论是5G还是AI,相关行业中的需求使数据呈现指数级增长。

另一方面,统一的大数据和AI处理分析,是下一个十年的关键性应用需求。

所以理解了这种对于未来确实的判断,也就能看懂当前英特尔正在呈现的变化。

这家以硬件知名的巨头,正在从硬件、软件和整个生态层面,提供大数据、机器学习和深度学习方面的长期支持。

更加概括地来说,软件和硬件不本质,本质的是如何处理、分析和使用数据。

而基于数据出发的本质认知,自然能理解英特尔何以越来越多元、开放和无处不在。

ai时代英特尔在干什么(专访英特尔戴金权)(4)

专访戴金权院长

量子位:大数据和AI,给英特尔带来的变化是什么?

戴金权:英特尔很早就开始投入大数据领域研发,比如跟UC伯克利基于Apache Spark,进行了许多技术开发和应用合作。

到后来随着大数据的发展,我们明确了趋势:从一开始的扩展、处理大量数据,到如何进行分析,再到如何在上面进行机器学习和深度学习的建模和预测未来。

我认为这和AI发展的趋势也非常吻合。如果说现在AI有什么趋势?我觉得是AI变得无处不在。

可能开始是在一些互联网公司,或者一家自动驾驶公司会使用大量AI技术……

但是今天不管餐饮行业还是电信运营商以及制造业,他们越来越多希望把AI用到各种各样的应用场景中,所以AI从实验室就慢慢进入了生产环节。

在实验室中,很多时候大家关心的是用各种各样的方法提高数据集上模型的准确率。

量子位:AI在现实场景应用中会有什么挑战?

戴金权:挑战会很多,比如最直观的大数据。现实环境中的数据量非常大,这就需要和现有生产数据结合。

我们曾经和一家大型互联网公司合作,他们有很多AI研究员开发了AI模型后,想把其模型在生产数据上运行。

但是后来他们发现生产数据都在大数据系统中,他们根本不知道如何把AI运行在那些大数据上,于是就做数据拷贝,把数据从一个集群拷贝到另外一个集群。

很多时候我们需要跨数据中心的拷贝,那么如何直接应用AI并将其扩展到相应大数据平台上是一个很大挑战。

量子位:这也是为什么会有Analytics Zoo这样的平台?

戴金权:对,端到端的流水线非常重要。

并非只有一个AI模型,比如对模型进行训练或者推理时,经常出现很长的端到端链路,包括数据导入、数据处理、特征提取、特征转换等。如何使端到端流水线更有效率也是很重要的因素。

当然,还有针对各种各样的AI应用,如何使这些智能计算支撑上层AI应用场景。

量子位:所以英特尔开源开放一面越来越被关注。

戴金权:英特尔其实做了非常多开源的工作,比如在Linux操作系统、虚拟化方面。

在大数据方面也是如此,我们基于大数据AI开源软件生态做了非常多工作,英特尔在开源社区做了非常大的投入,目标是能够将开源软件应用在整个生态系统中,使用应用或技术得到很大提升。

比如当英特尔和加州大学伯克利分校开始合作的时候,Spark只是他们的一个博士项目,我们共同做了很多开源和开发,最终Spark成为了一个Apache软件基金会顶级开源项目。

包括在AI方面,在PyTorch、TensorFlow各个开源框架中的优化,以及我们构建的BigDL、Analytics Zoo开源平台,英特尔一直希望通过开源的工作推动整个大数据和AI的生态建设。

量子位:这个过程中,会有什么其他收获吗?

戴金权:我们会和很多用户合作或交互,也会更加关注如何将下一代的技术发展趋势和技术方向融合到软件平台中来。

福特曾经说,“如果问我们的用户想要什么,他们永远说想要更快的马车。但事实上他们要的是汽车。”

其实也是一样的道理,我们会和很多用户合作,当我们在做Apache Hadoop的时候,用户提了很高要求,他们说需要更快的Hadoop,你们需要把它优化的更好。

但是我们意识到他们要的是类似Spark这样的下一代大数据处理分析引擎,因为它能通过新技术、新架构解决其现有问题,而非在现有平台上进行优化。

而我们在做BigDL和Analytics Zoo的时候也是如此。我们发现用户的需求,就考虑如何将AI应用到大规模分布式的大数据场景和平台中,以帮助其解决问题。

量子位:现在有一种观点是AI软件正在重塑英特尔,你怎么看?

戴金权:无论在软件还是硬件上,英特尔在AI领域都有非常多的工作,AI是英特尔非常重要的方向。

比如我们的XPU、CPU、GPU等,这些是硬件方面的工作。

在软件方面,我们考虑的是如何提供更好的支持,因为今后的智能计算肯定是一个超异构的XPU架构。

对于软件开发者,他们希望有统一的编程接口。作为数据科学家,我们并不希望处理不同的硬件。所以我们基于OneAPI这种能够统一XPU的编程模式会做很多工作。

在此之前,我们针对各种硬件平台以及深度学习、机器学习的库或框架优化也会做很多工作,包括在PyTorch、TensorFlow等领域的各种各样的优化。

我们希望为用户不同的AI应用场景提供支持,以提高他们端到端的性能效率和开发效率。

包括大数据AI,其实我们的目标就是帮助用户将端到端的AI流水线打通,使其能够扩展到一个分布式的架构上。

量子位:效率提升这条主线上,AutoML近年很火。

戴金权:英特尔有一个工具是做低精度转换的,在低精度上可以大幅提高效率,但需要大量人工操作才可以达到这个效果……于是我们利用AutoML,利用一个自动化工具把低精度的事情完成。

很多时间序列的应用场景,都可以自动化特征提取、模型选择、超参调整等。

量子位:这其实也是降低AI应用门槛的需求反映,甚至在开发侧,大家都在谈低代码无代码?

戴金权:还是那句话,不存在一个解决方案可以支持所有场景。

业内会有不同的开发人员,有一些开发人员是硬核开发人员,基于OneAPI这样的工具,可以帮助他们在底层性能和框架上进行开发。

有一些是数据科学家或数据工程师,他们会基于Python或Java这样的平台开发。还有更高层次的分析师,甚至一些人完全不是编程人员,比如希望对X光片进行分析的医生。

这可能需要一些更高层次的应用,可能就不想写代码,或者只是做一些简单的工作,这是另外一个方向。

英特尔有一些工作会做得比较多,比如OneAPI,或是基于框架、大数据平台的工作。

我们还有很多合作伙伴,包括在去年年底我们收购了一家专门做超参优化的公司叫SigOpt,它是业界对机器学习参数进行自动化优化的领先公司,还提供云服务。

这样的技术就可以整合到英特尔很多工具里,进而把很多工作自动化,大幅提高开发效率。

我觉得这个可能在不同层面以及针对不同的受众、开发人员会提供不同的技术给他们。

量子位:上面谈到的这种满足需求,是现在英特尔“异构”谈得越来越多的原因吗?

戴金权:AI有不同的细分市场。有CPU AI、GPU AI、以及各种各样专用的加速器AI。英特尔有CPU、GPU、加速器(比如Habana方面的工作),也有边缘和客户端的一些工作。

其实各自有其更适合的场景,我们希望通过类似OneAPI这样的软件,可以将这些不同的超异构硬件结合起来。

比如我们也有可以使用FPGA来进行加速的场景。我们希望利用OneAPI将编程模式统一,而且OneAPI本身也是一个工业界的标准,并非英特尔独有。

除支持英特尔自身的XPU硬件之外,它也可以支持其他硬件。比如有人在上面做ARM的支持等等。

从英特尔角度来说,我们看到的是XPU的超异构架构,不同的GPU、CPU、加速器等,针对不同场景的应用会有更好效果。

我们通过类似OneAPI这样的软件平台不仅能够帮助用户轻松实现各个硬件平台的高效率和高性能,还能高效开发跨平台应用场景。

当你看到整个端到端的AI流水线,不能说它只能在某种场景下工作。CPU AI有CPU AI的优势,GPU AI有GPU AI的应用场景,加速器AI有加速器AI的应用场景。

量子位:所以如果从端到端的AI流水线、数据维度来看英特尔,其实软件方面的努力是容易被忽视的?

戴金权:我认为,对开发人员或数据科学家来说最看重的是软件生态,这是英特尔过去几十年一直在做的,包括我刚刚说的开源软件以及各种各样的工作,关键就是如何打造一个软件生态。

比如BigDL更适合的软件生态是Spark。我是Spark的用户,很多数据工程师原来用Spark做了非常多数据处理、数据分析甚至机器学习相关工作。采用BigDL这样的工具可以在Spark大数据生态中实现很高效的开发。

我们研发并推出BigDL,不是说要和TensorFlow或者谁竞争,这不是我们的目的。

我们希望针对不同的软件生态用户社区可以提供最好的工具给他们,所以在Analytics Zoo当中,我们会把像BigDL、TensorFlow、PyTorch或OpenVINO整合进来,最终帮助用户解决问题。

我们的目的是采用所需工具解决新问题,也就是如何在大规模、分布式的大数据平台上更好地扩展。

,

免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。