深度学习触发AI革命,AI+安防最先布局

发布时间:2017-06-23 00:00
作者:
来源:C114中国通信网
阅读量:309

过去5年间,计算能力的大幅进步触发了AI革命,谷歌母公司Alphabet、亚马逊、苹果、Facebook以及微软等科技巨头争先进入这个领域。尤其是自去年人工智能机器人大与人类棋手开展,人工智能关注度达到了一个新的高峰。其实,人工智能的发展可以追述到60几年前,但是因为技术的原因数次沉寂,直到深度学习的出现,让人工智能再次掀起热潮。


深度学习再度点燃人工智能 安防成重点领域

 

深度学习再度点燃人工智能 安防成重点领域

什么是深度学习?

深度学习是机器学习方法之一,而机器学习则是让计算机从有关我们周围世界或其中某个特定方面的范例中学习,从而让计算机变得更加智能的一种方式。在所有的机器学习方法中,深度学习是最独特的,因为它的灵感源自我们对人脑探索与研究。深度学习试图让计算机学会很多不同层次的抽象和表达,这可能是使此类系统如此成功的原因。

 为何安防行业成深度学习重点?

安防领域是个时刻都能产生海量数据的行业,近两年在AI技术的加持之下,这些数据正在产生新的意义,为安防这个传统行业解决更多问题。

 安防行业作为人工智能技术天然的训练场和应用场,对于人工智能的落地应用有着迫切的需求,基于安防行业的天然属性,安防行业在人工智能化市场有着深入的投入。出于对市场的敏感,主流的设备解决方案供应商已经发力布局已经纷纷入局,凭借其各自深耕安防行业的经验,都在应用落地取得了不俗的成绩。其中,深度学习方面取得的成绩尤为突出,成为点燃人工智能发展的关键技术。 

深度学习主要的研究领域在语音识别和视觉方面,而且将深度学习应用到各个方向,可以不同的领域做出不同的技术创新。对于掌握了许多视频图像资源的安防行业来说,深度学习和安防的结合拥有比较高的契合度,即对图像和视频的分析,包括:

——在图像分析方面,比如人们熟悉的人脸识别、文字识别和大规模图像分类等,深度学习大幅提升了复杂任务分类的准确率,使得图像识别、语音识别,以及语义理解准确率大幅提升。

——在人脸方面,可以实现人脸检测、人脸关键点定位、身份证对比、聚类以及人脸属性、活体检测等等。在智能监控方面,可以做人、机动车、非机动车视频结构化研究。

——在文字方面,小票的识别、信用卡的识别、车牌的识别,这些都是由深度学习的算法来做的。同时在图像的处理方面,在去雾、超分辨率、去抖动、去模糊,HDR、各种智能滤镜的设计都是用深度学习的算法。

安防行业深度学习主要集中在体分析(人脸识别、人体特征提取技术)、车辆分析(车辆识别技术、车辆特征提取技术)、行为分析(目标跟踪检测技术、异常行为分析技术)、图像分析(视频质量诊断技术、视频摘要分析技术)四大块上。随着深度学习算法的突破,目标识别、物体检测、场景分割、人物和车辆属性分析等智能分析技术,都取得了突破性进展。

“AI+安防”潮流来袭

根据前瞻产业研究院《中国互联网+安防行业发展前景预测与投资战略规划分析报告》显示,近年来,随着安防需求不断提升。我国安防行业市场规模从2010年的2350亿元增长到2016年的5400亿元,年复合增长率达到15%。

值得一提的是,与传统安防手段相比,新一代安防技术正借助人工智能、云计算、大数据、物联网、移动互联等技术,实现多元化快速发展,“AI+安防”正给人们带来一个更加“聪明”的安全时代。

据中安协发布的《中国安防行业“十三五”(2016—2020年)发展规划》,“十三五”期间,安防行业将向规模化、自动化、智能化转型升级。到2020年,安防企业总收入达到8000亿元左右,年增长率达到10%以上。

“未来4到5年,安防将进入一个人工智能高速发展的时代。”国内安防企业宇视科技副总裁闫夏卿表示,安防行业2016年基本完成了场景智能的适配;2017年、2018年将进入以深度学习为基础的人工智能阶段;到2019年、2020年将全面进入到数字智能的阶段。最终,经过数字智能阶段后,安防行业的人工智能将全面的和全行业、全IT的大数据业务平台进行完善的对接,安防也进入智能时代。

除了赢得产业巨头们的积极响应之外,“AI+安防”还获得了国家层面的政策加持。

2016年6月份,工信部等部门发布的《“互联网”人工智能三年行动实施方案》指出,智能安防将作为人工智能产品创新的重点应用推广领域。《方案》提出,实施智能安防推广工程,鼓励安防企业与互联网企业开展合作,研发集成图像与视频精准识别、生物特征识别、编码识别等多种技术的智能安防产品,推动安防产品的智能化、集约化、网络化。

结语:现阶段,不仅安防行业,越来越多的产业和企业在深度学习领域进行探索。当然我们也期待在深度学习甚至是人工智能的影响和各个安防生厂商的创新下,更多的智能安防产品能迅速落地应用,提高城市安防系统的工作效率!

在线留言询价

相关阅读
本质上,深度学习提供了一套技术和算法,这些技术和算法可以帮助我们对深层神经网络结构进行参数化——人工神经网络中有很多隐含层数和参数。深度学习背后的一个关键思想是从给定的数据集中提取高层次的特征。因此,深度学习的目标是克服单调乏味的特征工程任务的挑战,并帮助将传统的神经网络进行参数化。 现在,为了引入深度学习,让我们来看看一个更具体的例子,这个例子涉及多层感知器(MLP)。 在MLP中,“感知器”这个词可能有点让人困惑,因为我们并不想只在我们的网络中使用线性神经元。利用MLP,我们可以学习复杂的函数来解决非线性问题。因此,我们的网络通常由连接输入和输出层的一个或多个“隐藏”层组成。这些隐藏的层通常有某种S型的激活函数(logs-s形或双曲正切等)。例如,在我们的网络中,一个逻辑回归单元,返回0-1范围内的连续值。一个简单的MLP看起来就像这样: 其中y是最终的类标签,我们返回的是基于输入x的预测,“a”是我们激活的神经元,而“w”是权重系数。现在,如果我们向这个MLP添加多个隐藏层,我们也会把网络称为“深度”。这种“深度”网络的问题在于,为这个网络学习“好”的权重变得越来越难。当我们开始训练我们的网络时,我们通常会将随机值赋值为初始权重,这与我们想要找到的“最优”解决方案很不一样。在训练过程中,我们使用流行的反向传播算法(将其视为反向模式自动微分)来传播从右到左的“错误”,并计算每一个权重的偏导数,从而向成本(或“错误”)梯度的相反方向迈进。现在,深度神经网络的问题是所谓的“消失梯度”——我们添加的层越多,就越难“更新”我们的权重,因为信号变得越来越弱。由于我们的网络的权重在开始时可能非常糟糕(随机初始化),因此几乎不可能用反向传播来参数化一个具有“深度”的神经网络。 这就是深度学习发挥作用的地方。粗略地说,我们可以把深度学习看作是一种“聪明”的技巧或算法,可以帮助我们训练这种“深度”神经网络结构。有许多不同的神经网络结构,但是为了继续以MLP为例,让我来介绍卷积神经网络(CNN)的概念。我们可以把它看作是我们的MLP的“附加组件”,它可以帮助我们检测到我们的MLP“好”的输入。 在一般机器学习的应用中,通常有一个重点放在特征工程部分;算法学习的模型只能是和输入数据一样好。当然,我们的数据集必须要有足够多的、具有辨别能力的信息,然而,当信息被淹没在无意义的特征中,机器学习算法的性能就会受到严重影响。深度学习的目的是从杂乱的数据中自动学习;这是一种算法,它为我们提供了具有意义的深层神经网络结构,使其能够更有效地学习。我们可以把深度学习看作是自动学习“特征工程”的算法,或者我们也可以简单地称它们为“特征探测器”,它可以帮助我们克服一系列挑战,并促进神经网络的学习。 让我们在图像分类的背景下考虑一个卷积神经网络。在这里,我们使用所谓的“接收域”(将它们想象成“窗口”),它们会经过我们的图像。然后,我们将这些“接受域”(例如5×5像素的大小)和下一层的1个单元连接起来,这就是所谓的“特征图”。在这个映射之后,我们构建了一个所谓的卷积层。注意,我们的特征检测器基本上是相互复制的——它们共享相同的权重。它的想法是,如果一个特征检测器在图像的某个部分很有用,它很可能在其他地方也有用,与此同时,它还允许用不同的方式表示图像的各个部分。 接下来,我们有一个“池”层,在这个层中,我们将我们的特征映射中的相邻特征减少为单个单元(例如,通过获取最大特征,或者对其进行平均化)。我们在很多测试中都这样做,最终得出了我们的图像的几乎不不变的表示形式(确切的说法是“等变量”)。这是非常强大的,因为无论它们位于什么位置,我们都可以在图像中检测到对象。 本质上,CNN这个附加组件在我们的MLP中充当了特征提取器或过滤器。通过卷积层,我们可以从图像中提取有用的特征,通过池层,我们可以使这些特征在缩放和转换方面有一定的不同。
2017-12-05 00:00 阅读量:340
深度学习是个复杂的概念,其中每项因素都不简单。即使您身为已经熟练掌握人工神经网络基础知识的数据科学家,大家也需要时间了解加速卷积、复发、生成以及其它与多层深度学习算法规范相关的复杂概念。而随着深度学习创新态势的升温,这一技术开始面临新的风险——对于普通开发者而言,其过度复杂的特性导致我们即使深入研究也很难加以了解。 但我个人对此倒是颇有信心,在我看来在这个十年结束时,深度学习业界将大大简化其功能交付方式,意味着普通开发者也能够理解并加以采用。下面,我将与大家一同探讨关于深度学习未来发展方向的六项预测。  1.深度学习业界将采用一组核心标准化工具到这个十年结束时,深度学习业界将建立起一组核心标准化工具框架。就目前而言,深度学习专家已经选定了一部分工具选项,其中大部分为开源项目。最具人气的成果包括TensorFlow、BigDL、OpenDeep、Caffe、Theano、Torch以及MXNet。 2.深度学习将在Spark之内实现原生支持 Spark社区将在未来一到两年内增强该平台的原生深度学习能力。通过本届Spark峰会的发言来看,整个技术社区似乎正将努力方向明确指向TensorFLow,而BigDL、Caffe与Torch也至少会被纳入支持范畴。 3.深度学习将在开放分析生态系统中找到坚实的利基平台 大多数深度学习部署方案立足于Spark、Hadoop、Kafka以及其它开源数据分析平台。愈发明确的趋势指出,我们将无法在缺少由这些平台提供的完整大数据分析能力的前提下实现深度学习算法的训练、管理与部署。具体来讲,Spark将成为实现深度学习算法在各类工具内规模化与加速建立的基础性平台。可以肯定的是,多数深度学习开发者正在利用Spark集群以实现超参数优化、快速内存数据训练、数据清理以及预处理等特定任务。 4.深度学习工具将引入经过简化的编程框架以实现快速编码 应用开发者社区将继续采用API及其它编程抽象方案,旨在降低代码行数以快速完成核心算法功能的开发。展望未来,深度学习开发者将越来越多地腰牌集成化、开放、基于云的开发环境,并由此访问更为广泛的现成及可插拔算法库。这一切将使得深度学习应用以可组装容器化微服务的形式实现API驱动型开发。此类工具将自动实现更多深度学习开发管道功能,同时提供适用于笔记本设备的协作与共享规范。随着这种趋势的加剧,我们将看到更多诸如《50行代码(Pytorch)实现生成式对抗网络》这样的头条新闻。 5.深度学习工具集将支持可复用组件的可视化开发深度学习工具集将引入更多模块化功能以实现可视化设计、配置以及立足于原有构建组件的新模型训练。其中大部分可复用组件将通过“翻译学习”从原有项目中提取,用以解决类似的用例。可复用深度学习工件将被结合到标准库与接口当中,具体包括特征表达、神经节点分层、权重方法、训练方法、学习速率以及其它与原有模型相关的功能。 6.深度学习工具将被嵌入至每一类设计面 现在讨论“深度学习民主化”进程还为时过早。在未来五到十年内,深度学习开发工具、库以及语言将逐渐成为每一种软件开发工具集内的标准组件。同样重要的是,这些用户友好型深度学习开发能力将被嵌入至生成式设计工具内,以供艺术家、设计师、架构师以及来自各个领域的创造性工作者使用。推动这一切的正是深度学习工具的易用性,其强大的能力将被广泛应用于图像搜索、自动标记、仿真渲染、分辨率增强、风格转换、图形启发以及音乐编曲等层面。 随着深度学习在大规模市场化应用领域的快速推进,其将与数据可视化、商务智能与预测分析一道成为众多行业的立足基石。而各类尝试学习方案也将开始向自助服务式云交付模式转型,从而为那些不希望接触底层技术复杂性的用户提供便利。而这,也正是长久以来技术发展的必然趋势。
2017-03-09 00:00 阅读量:410
  • 一周热料
  • 紧缺物料秒杀
型号 品牌 询价
CD74HC4051QPWRQ1 Texas Instruments
PCA9306DCUR Texas Instruments
TPS5430DDAR Texas Instruments
TPS61021ADSGR Texas Instruments
TXB0108PWR Texas Instruments
TPIC6C595DR Texas Instruments
型号 品牌 抢购
TPS61021ADSGR Texas Instruments
TXS0104EPWR Texas Instruments
TPS63050YFFR Texas Instruments
TPS5430DDAR Texas Instruments
ULQ2003AQDRQ1 Texas Instruments
TPS61256YFFR Texas Instruments
热门标签
ROHM
Aavid
Averlogic
开发板
SUSUMU
NXP
PCB
传感器
半导体
相关百科
关于我们
AMEYA360商城(www.ameya360.com)上线于2011年,现 有超过3500家优质供应商,收录600万种产品型号数据,100 多万种元器件库存可供选购,产品覆盖MCU+存储器+电源芯 片+IGBT+MOS管+运放+射频蓝牙+传感器+电阻电容电感+ 连接器等多个领域,平台主营业务涵盖电子元器件现货销售、 BOM配单及提供产品配套资料等,为广大客户提供一站式购 销服务。