大公网4月1日合肥讯(记者柏永、通讯员杨保国)继在世界上率先实现五光子、六光子、八光子纠缠等成果之后,中国科学技术大学校潘建伟教授研究团队日前再有突破性进展,在国际上首次实现量子机器学习算法。有分析人士指出,这是量子计算应用于大数据分析和人工智能领域的开创性实验工作。国际权威物理学期刊《物理评论快报》评价称,该工作“非常前沿,具有高度的兴趣”、“在量子机器学习这个重要而有趣的课题迈出了第一步”。
中国科学技术大学本周二消息称,该校潘建伟教授及其同事陆朝阳、刘乃乐等组成的研究团队发展了世界领先的光量子计算物理实现研究平台,在国际上率先实验实现了基于量子比特的机器学习算法演示。该算法的核心是通过以经典数据编码的微观量子态和辅助量子比特的纠缠,快速提取出不同向量间的内积、欧几里得距离等信息。
据悉,机器学习是人工智能的核心,通过使机器模拟人类学习行为,智能化地从过去的经历中获得经验,从而改善其整体性能,重组内在知识结构,并对未知事件进行准确的推断。机器学习应用广泛,涉及科学和工程等诸多领域,包括金融分析、数据挖掘、生物信息学、医学诊断、电子商务等。
大数据时代电子数据爆炸式增长,平均每两年翻一番。据估计,过去三年的数据超过之前几千年的总量。另一方面,随着后摩尔时代的到来,经典计算机芯片尺寸难以进一步缩小,计算速度的进一步提升受到限制。有科学家预测,机器学习等大数据分析任务未来或将面临大数据爆炸式增长的巨大挑战。
主动应对大数据挑战
如何应对大数据的上述挑战?欧美主要发达国家政府和高科技公司积极整合研究力量和资源,抢滩布局,抢占量子信息技术应用先机。以美国为例,国家航空航天局和谷歌公司联合成立量子人工智能实验室,英国牛津大学、诺基亚公司和全球最大军火供应商洛克希德马丁公司共建立量子优化和机器学习中心。
2013年,美国麻省理工学院塞斯.罗伊德教授提出理论预言,利用量子系统在高维向量分析方面的并行计算优势,可为机器学习带来指数量级的加速,将远远超越现有经典计算机的运算速度。理论估计,计算两个亿亿亿维向量的距离,使用目前最快的、每秒钟亿亿次运算速度的经典计算机大概需用时十年,而用GHz时钟频率的量子计算机则可需要不到1秒的时间。
本文系大公网原创稿件,转载请注明作者和来源。
大公网2015-4-2http://edu.takungpao.com/360/q/2015/0402/2962920.html