关于组织申报2019年度广东省重点领域研发计划“新一代人工智能”重大科技专项项目的通知

作者:宏创为高新认定发布时间:2019-07-30 15:34:53

省直有关部门、各地级以上市科技局(委)、各有关单位:

为全面贯彻落实党的十九大和习近平总书记关于加强关键核心技术攻关的系列重要讲话精神,按照省第十二次党代会、十二届四次、六次全会和全省科技创新大会相关部署,根据《广东省重点领域研发计划实施方案》,现启动2019年度广东省重点领域研发计划“新一代人工智能”重大科技专项项目申报工作。有关事项通知如下:

  一、申报要求

(一) 申报单位为广东省内注册创新主体(包括企业、科研院所、高校、其他事业单位和行业组织等)的,应注重产学研结合、整合省内外优势资源;申报单位为港澳地区高校院所的,按照《广东省科学技术厅 广东省财政厅关于香港特别行政区、澳门特别行政区高等院校和科研机构参与广东省财政科技计划(专项、基金等)组织实施的若干规定(试行)》(粤科规范字〔2019〕1号)文件精神纳入相应范围;申报单位为省外地区的,项目评审与立项过程按照相关规定与广东省内单位平等对待。

省外单位牵头申报的,经竞争性评审,择优纳入科技计划项目库管理;入库项目在满足科研机构、科研活动、主要团队到广东落地,且项目知识产权在广东申报、项目成果在广东转化等条件后,将给予立项支持。

(二) 坚持需求导向和应用导向。鼓励产学研联合申报,牵头申报单位为企业的,原则上应为高新技术企业或龙头骨干企业,建有研发机构,在本领域拥有国家级、省部级重大创新平台,且以本领域领军人物作为项目负责人。鼓励加大配套资金投入,企业牵头申报的,项目总投入中自筹经费原则上不少于70%;非企业牵头申报的,项目总投入中自筹经费原则上不少于50%(自筹经费主要由参与申报的企业出资)。

(三) 省重点领域研发计划申报单位总体不受在研项目数的限项申报约束,项目应依托在该领域具有显著优势的创新单位,加强资源统筹和要素整合,集中力量开展技术攻关。不鼓励同一单位或同一研究团队分散力量、在同一专项中既牵头又参与多个项目申报,否则纳入科研诚信记录并进行相应处理。

(四) 项目负责人应起到统筹领导作用,能实质性参与项目的组织实施,防止出现拉本领域高端知名专家挂名现象。

(五) 项目内容须真实可信,不得夸大自身实力与技术、经济指标。各申报单位须对申报材料的真实性负责,要落实《关于进一步加强科研诚信建设的若干意见》(厅字〔2018〕23号)要求,加强对申报材料审核把关,杜绝夸大不实,甚至弄虚作假。各申报单位、项目负责人须签署《申报材料真实性承诺函》(模板可在阳光政务平台系统下载,须加盖单位公章)。项目一经立项,技术、产品、经济等考核指标无正当理由不予修改调整。

(六) 申报单位应认真做好经费预算,按实申报,且应符合申报指南有关要求。

(七) 有以下情形之一的项目负责人或申报单位不得进行申报或通过资格审查:

1.项目负责人有广东省级科技计划项目3项以上(含3项)未完成结题或有项目逾期一年未结题(平台类、普惠性政策类、后补助类项目除外);

2.项目负责人有在研广东省重大科技专项项目、重点领域研发计划项目未完成验收结题(此类情形下该负责人仍可作为主要参与人参与项目申报);

3.在省级财政专项资金审计、检查过程中发现重大违规行为;

4.同一项目通过变换课题名称等方式进行多头或重复申报;

5.项目主要内容已由该单位单独或联合其他单位申报并已获得省科技计划立项;

6.省内单位项目未经科技主管部门组织推荐;

7.有尚在惩戒执行期内的科研严重失信行为记录和相关社会领域信用“黑名单”记录;

8.违背科研伦理道德。

(八) 申报项目还须符合申报指南各专题方向的具体申报条件。

 二、专题内容

专题一:关键基础体系研究及验证(专题编号: 20190153)

项目1:面向自主智能体感知与协作的计算架构和验证

(一)研究内容

针对自主智能体感知与协作的新型深度计算架构开展研究。针对实时感知与识别、自主控制与协作、动态环境下的自适应任务重构等难题,突破实时目标检测算法、多智能体协作、智能计算智能处理器系统结构设计等关键技术。研 究低功耗、强实时的软硬件协同解决方案;研究基于语义地 图的情境理解和多智能体协作等核心技术;完成基于认知计 算模型的人工智能原型处理器设计,面向多智能协同任务的 原理验证系统。可支持智慧物流、智慧社区、智慧安防等领域。

(二)考核指标

项目完成时,须基于自主智能理论计算架构完成一款新型处理器原型设计,并建成面向物流、无人驾驶等领域技术验证系统,可与原有自主智能体感知、协作、任务执行效率直接比对。其中,处理器峰值算力不低于12.8TOPs, 执行效率不低于70%,部分网络不低于80%;单处理器支持不低于8路的1080P@60Hz目标检测任务;基于该原型处理器构建自主智能体数目≥10个、种类≥2类的多智能体协同验证系统;验证系统围绕混合增强智能、机载实时处理、空地联合感知协作、动态环境任务自适应重构等关键技术开展集成验证,达到低能耗、高实时、强适应的要求;项目执行期内在广东省内自主智能体领域进行不少于3处应用,完成新申请发明专利大于等于20项(其中至少包含5项PCT专利), 研制并发布实施团体标准2项,集成电路保护布图1项。

项目2:基于混合增强智能的平行智能理论研究及验证

(一)研究内容

本方向针对平行智能理论体系下的机器智能进行系统性研究。研究提升机器理解并适应真实世界环境、完成复杂时空关联任务的能力;研究基于认知计算的混合增强智能,探索直觉推理与因果模型、记忆和知识演化的可计算框架;研究人机协同的感知与执行一体化模型、智能计算前移的新型边缘节点等核心技术;构建包含人工系统、计算实验、平行控制与管理等功能的混合增强智能平行智能系统平台;在制造、交通或健康等行业建立验证系统予以验证。

(二)考核指标

项目完成时,须基于平行智能理论建立具有人机物要素10万个以上、可接入2类以上智能系统API、具备10种以上接口的验证系统及软硬件平台,并在实际场景中应用、验证、效率比对。该验证系统包含人机混合增强智能基础模型与核心技术算法不少于15个,以上模型和算法能够支 持语音、图像、意图理解等多模态人机交互手段,将人机交互、感知和认知计算的运行效率比现有水平提升30%以上; 所构建的平行智能系统平台对典型场景的感知精度超过95%,实现人工工作量降低40%以上;项目执行期内完成新申请发明专利大于等于20项(其中至少包含5项PCT专利),研制并发布实施团体标准2项。项目执行期内在广东省内制造、交通或健康等领域完成不少于3类应用示范。

项目3:面向数据智能标注的弱监督与自学习方法及系统验证

(一)研究内容

本方向针对大数据智能的关键基础体系进行建设。研究多机构协同的系统性结构化标注策略,结合深度学习算法针对影像数据(如图片、视频)、文本数据(如语音、文字)研究自动生成结构化数据的智能标注系统,开发半监督/无监督学习算法支持下的集数据收集、数据处理和自动标注为一体的智能标注云平台。通过从海量未标注的数据中自动挖掘有价值的目标信息,实现(极)弱监督下的特征与模型学习,并大幅度地提升模型的精简性、通用性和适应性。通过推理、匹配与迭代优化,研究无标注样本下的深度特征预学习;研究结合迁移学习与主动学习的增量学习方法,并通过渐进式模型训练将其应用到实体目标增量标注任务中,通过迭代学习有效地提升模型性能。建立高效通用的数据标签与结构化标注标准体系,并完成标准化的标注数据库建设。

(二)考核指标

项目完成时,须建成一个智能标注开放平台,接入的开发者不少于300个,平台上通用和专用智能标注小程序不少于100个,活跃用户不少于3000个。项目形成的平台可完成面向影像、文本数据自动标注任务,提出20个以上的弱监督与自主学习模型与算法,实现标注准确率不低于92%, 对于其中任一个子任务分类的准确率、灵敏度、特异度均不低于90%。开发海量数据自动标注系统,建立起包括亿级数量和PB级存储的各类影像数据(图片、视频)、文本数据(语音、文字)库。项目执行期内完成新申请发明专利大于等于20项(其中至少包含5项PCT专利),研制并发布 实施团体标准2项。验证应用需覆盖广东省内无人驾驶、智 能安防、智慧医疗等领域。

申报要求:本专题的项目3须企业牵头申报。

支持强度:本专题每个项目拟支持1-2项,资助额度3000 万元左右/项。

专题二:关键共性技术研究及应用(专题编号: 20190154)

项目1:基于跨媒体感知的人机交互关键技术研究与应用

(一)研究内容

开展多模态的人机交互技术研究,重点解决以视觉感知、语音理解、动作交互为主的人机交互核心问题。研究面向开放环境的自适应场景及交互对象的视觉感知与建模,提升智能系统对多样化场景的适应能力;开展高层语义理解与融合的人机语音交互技术研究,提升语音系统在开放交互场景中的模糊理解与泛化推理能力;研究跨模态的机器人情感认知技术,包含表情、对话语音情感理解等;研究融合认知理解的高自由度人机动作交互,实现多模态与多样化的人机交互方式;研制面向通用边缘计算的智能实时推理平台,形成端云一体化的多模态人机交互系统,实现感知、理解、交互一体的智能设备;在多模态人机交互上形成核心技术,并在服务、教育、工业等人机交互与机器人方向形成示范性应用。

(二)考核指标

项目完成时,须开发完成具备多模态感知能力,具备高自由度并可自主执行动作的智能机器人不少于3款。项目 需建立环境自适应的场景感知系统,实现高精度的场景感知和理解,并满足10个以上场景的自适应感知需求;完成交互语音理解系统,中文语音识别准确率超过90%,中文问答准确率高于85%;开发完成高自由度的实时动作交互系统, 机器人动作交互姿态超过15个自由度;多模态情感识别准确度>90%;构建面向多模态人机交互的端云一体化的实时 动作交互平台,其边缘计算满足大于5帧/秒的实时处理能力;形成多模态感知与人机动作交互相融合的交互应用不少于3项。在广东省内服务、教育、工业等智能机器领域应用。项目执行期内完成新申请发明专利大于等于20项(其中至少包含5项PCT专利),提交国际或国家标准标准草案≥1项。

项目2:工业级多模智能感知系统关键技术与边云协同应用

(一)研究内容

开展基于声和超声感知的智能感知认知理论和关键技术研究。研究基于工业声成像的产品或零部件故障辨识和故障定位技术;基于声像的对抗学习、迁移学习和强化学习融合算法,研究基于深度学习的时序/空间/时频多维信息 融合推理算法。研究基于超声感知的高精度定位技术,基于机器学习、流形学习、深度学习的多维信号特征提取算法。研究基于自组织神经网络、记忆回放机制的在线增量学习算法,实现基于人机互动的新故障自动标注。建立面向制造感知的可重构异构智能计算边缘节点定制化软硬件协同设计,研究高效、灵活的深度神经网络加速单元和信号处理加速单元设计,为多框架深度学习以及信号处理构建易于编程与应用的集成编译开发与运行时管理软件,完成自主边缘智能计算节点构建。建立多模态感知融合云平台并实现多厂区边云部署,建成同类产品在不同区域产线的多模态感知智能学习与计算系统。形成算法、系统与平台的完整软硬件设计与快速的算法模型可迭代设计评估、验证。

(二)考核指标

项目完成时,须完成基于非接触超声感知及声感知等先进感知的工业智能诊断系统,并实现边云部署。其中, 非接触超声感知系统可实现扫查检测3m/s以上,工作距离范 围0.35m~2m时检出点定位精度小于1cm,成像点间距小于1mm,故障检出率≥95%。工业声像的故障、定位感知认知模型10种以上,系统可分离故障声源6个以上,故障声定位精度±1cm,故障识别10种以上,判断时间小于1s,故障检出率≥99.99%,故障辨识准确率≥95%(包括在线新增故障,背景噪声强度70db~90db)。需构建易于多模态感知计算的自研算法库,自研管理平台可兼容多种主流计算框架,实现深度学习以及信号处理等算法融合的混合模型压缩、集 成仿真与在线评测;为自主硬件设计单元设计定制硬件接 口抽象与高层次综合库,完成国产应用处理器+FPGA的边缘智能节点设计,节点功耗<15W。系统需在5个以上不同区域厂区联合调试部署,部署上线软硬件系统不少于100套, 产线覆盖不少于80条,覆盖产线产值不少于25亿/年。项目 执行期内完成新申请发明专利大于等于20项(其中至少包含5项PCT专利)。

项目3:基于端云融合的网联协同控制关键技术研究及应用

(一)研究内容

面向AIOT场景下复杂不确定性端云融合模式下的跨域业务协同控制问题,开展边缘计算网关及智能网联协同控制系统的关键技术研究。包括面向处理器级网联端侧设备 数据采集融合的端云协同智能计算模型、低功耗边缘计算 网关体系架构、端云融合网联大数据全周期闭环智能管理 模型。研制具备低功耗、轻量级人工智能算法边缘执行框架的网关设备,研究支持终端网联节点国产操作系统的自 主可控软件集成开发环境和开源工具链。支持TensorFlow等框架下训练完成的神经网络模型到算子的翻译、算子到AI 芯片的指令集编译,研发面向AIOT的软件集成开发环境和编译工具链,搭建开源计算平台,提高边缘计算网关的AI 支持,面向城市交通管理、无人驾驶、安全生产应急管理、 企业风险预警分析管控等热点的城市大脑协同控制场景建 立示范应用。

(二)考核指标

项目完成时,须完成一个开源开放边缘计算网关系统开发,该边缘计算网关可支持采用基于RISC-V的超低功耗多核并行架构并支持不少于5种扩展指令集的处理器,支持 离线运行卷积神经网络等主流人工智能推理算法。支持不少于5种国产MCU或嵌入式处理器,支持NCNN和MNN两种国内主导的主流神经网络推理算法框架,以及Yolo V3等10 种以上嵌入式领域常用神经网络类型的模型编译转化。自研形成集成开发环境,性能不低于手写汇编效率的70%,比开源工具开发效率提升一个数量级,性能提升2倍以上,支持不少于两种主流开源操作系统。支持100万级边缘节点在线智能协同管理,以及不少于10种制式通信协议、不少于5 类多属性异构数据预处理。形成端云融合智能协同控制系统可支持PB级数据处理能力,并面向广东省内交通管控、无人驾驶、安全生产等复杂不确定性跨域业务场景,提升总体协调控制效率20%以上。项目执行期内完成新申请发明 专利大于等于20项(其中至少包含5项PCT专利),申请软 件著作权≥20项,提交国际或国家标准标准草案≥1项。项目实施三年内相关产品与服务累计涉及用户规模(企业/个人)到达100万级。

项目4:预测性决策控制模型研发与人工智能开放平台构建

(一)研究内容

研究面向制造的预测性决策控制模型及基础算法库, 研究支撑高维度性能衰退指标提取的高稳定性和敏感性算 法;研究根据特征数据库和运行数据库构建设备健康混合 模型,研究支持模型重合度评估系统或其部件健康度的算法;研究设备性能退化程度的算法及反馈补偿控制技术,研发软硬件协同计算系统。研究支撑高速在线动态补偿智能决策模型算法。研究支撑柔性件roll to roll和连续加工过程产品测量与和面向过程的误差源识别算法,构建基 于制造质量预测可拓模型,研发柔性件制造预测性决策控 制深度学习人工智能算法开放平台系统,研发可视化虚拟 设备属性数据建模与映射关系建立技术,研发拖拽式可视 化、图形化的数据建模、数据探索、深度分析、规则联动 与预运行及自主数据模型构建技术。

(二)考核指标

项目完成时,须完成一个预测性决策人工智能开放平 台建设。该平台可连接运行设备不少于10万台,并发数据 上报吞吐量单机QPS>8W,数据存储吞吐日均数据承载>30T,可提供包括特征提取、性能衰退预测、健康评估等预测性维护深度学习算法模型不少于200种,算法模型须支持Spark ML、Python等主流人工智能算法开发语言。系统支持拖拽式可视化数据建模,提供可视化虚拟设备属性数据建模并建立映射关系以及图形化、拖拽式的规则建模、规则联动与预运行,支持软件开发语言Java、Ruby、PHP、C#、Golang、NodeJS、Python,项目执行期间需接入平台活跃用户不少于10万个,开发者数大于6000个。针对可roll to roll和连续生产的柔性材料类制造系统,实现人工智能维护算法稳定性边界差异指标<5%,误判率<20%,实现早于基准的预测预报,装备运行持续时间在原基础上提高5%, 柔性件核心加工部件实际使用时间提高1倍,原材料使用率比在项目实施前提升5%,覆盖产能总体良率提升1.5%以上。项目完成时,基于上述创新成果,实现在广东省内6家以上不同行业柔性件制造企业形成智能化示范应用。新申请发明专利大于等于20项(其中至少包含5项PCT专利)。

申报要求:本专题的所有项目均须企业牵头申报。

支持强度:本专题每个项目拟支持1-2项,资助额度3000 万元左右/项。

 专题三:关键处理与感知器件(专题编号:20190155)

项目1:可敏捷定制的智能视觉处理器及系统应用

(一)研究内容

研究面向智能视觉应用的可灵活调整的处理器体系架构和部署工具,解决现有深度学习处理器固定体系结构与灵 活应用数据流之间的矛盾,针对不同应用场景中的深度学习 算法,研究处理器在算法特定的体系结构中的配置方法,研 究处理器在稠密网络与稀疏网络间切换模式,研究处理器动 态调整数据流和数据位宽的方法。研究面向智能视觉的神经 网络模型压缩技术,制定统一的网络压缩标准。研究高保真 度光感成像技术、超大图像数据的快速压缩与传输技术、亚像素级超高清图像特征提取、分割、匹配与识别技术。开展基于端云协同的应用示范。

(二)考核指标

项目完成时,须实现智能视觉终端ASIC处理器流片。该处理器在65nm制程下,最高功耗控制在2W以内,峰值8bit定点最高性能达到10TOPS和最高能效达到5TOPs/W量级。处理器可支持不同数据位宽(4, 8, 16, 32)的神经网络, 卷积层平均资源利用率达到75%以上,处理器具备可以灵活配置成不同网络层和面向不同场景的能力。基于该敏捷定制视觉处理器开发的“端云系统”,可在智能交通或高精度智能检测等领域应用,须在具体场景中验证敏捷定制处理器数据流 与数据位宽动态调整效果。项目执行期间,新申请发明专利 大于等于20项(其中至少包含5项PCT专利),研制并发布实施团体标准2项。

项目2:高性能TOF三维感知器件研发及视觉引导自主智能系统应用

(一)研究内容

开展高性能TOF图像传感器、3D传感器关键技术研究及处理器开发与应用。研发高感光度、高量子效率、低暗电流噪声且体积小的背照式(BSI)iTOF像素单元及其高分辨率图像传感器;研发高速、高精度、低功耗ADC及其读出电路;研究基于面阵激光器及光学器件组成的激光发射模组及其高频调制驱动电路。基于项目开发的TOF感知器件,研究3D视觉引导的自主智能系统,研究复杂环境下对操作对 象快速三维感知的能力,重构交互场景和操作对象三维模 型,完成自主智能系统在复杂环境约束下的运动控制,研 究用于精准交互和灵巧操作、快速估计的深度网络模型应 具备的防备对抗攻击的鲁棒性。

(二)考核指标

项目完成时,须研发出工业级TOF 3D传感器模组,并应用于3D视觉诱导。研发采用BSI和stacking工艺的Si基TOF图像传感器,像素大小不超过5um x 5um,使940nm的量子效率至少达到35%,像素内的光电子传输<1ns;3D传感器分辨率可达到VGA,帧速可达到150fps,对角FOV大于80°,近距离测量相对精度不超过2mm@0.5m,远距离测量相对精 度不超过1%@20m;TOF器件应用于三维视觉引导,可重构场景和交互模型,建立场景/物体类别不少于100个,主动抓取成功率不低于90%,将重构和虚拟场景训练所得模型用于 真实抓取的迁移学习,主动抓取成功率不低于80%。项目执行期内完成新申请发明专利大于等于20项(其中至少包含5 项PCT专利)。实现在广东省内工业制造、安防、危险品处理、物流、数据中心等至少三个行业的示范应用。

申报要求:本专题的项目2须企业牵头申报。

支持强度:本专题每个项目拟支持 1-2 项,资助额度 3000万元左右/项。

三、评审及立项说明

省重点领域研发计划项目由第三方专业机构组织评审,对申报项目的背景、依据、技术路线、科研能力、时间进度、经费预算、绩效目标等进行评审论证,并进行技术就绪度和知识产权等专业化评估:

(一) 技术就绪度与先进性评估。本专项主要支持技术就绪度3-6级的项目,项目完成时技术就绪度一般应达到7-9级,原则上项目完成后技术就绪度应有3级以上提高(技术就绪度评价标准及细则见附件2),各申报单位应在可行性报告中按要求对此进行阐述并提供必要的佐证支撑材料(可行性报告提纲可在阳光政务平台系统下载)。

(二) 查重及技术先进性分析。将利用大数据分析技术,对照国家科技部科技计划历年资助项目与广东省科技计划历年资助项目,对拟立项项目进行查重和先进性等分析。

(三) 知识产权分析评议。项目研究成果一般应有高质量的知识产权,请各申报单位按照高质量知识产权分析评议指引的有关要求加强本单位知识产权管理,提出项目的高质量知识产权目标,并在可行性报告中按要求对此进行阐述并提供必要的佐证支撑材料(可行性报告提纲可在阳光政务平台系统下载),勿简单以专利数量、论文数量作为项目目标。

拟立项项目经领域专家和战略咨询专家审议,并按程序报批后纳入项目库管理,按年度财政预算及项目落地情况分批出库支持,视项目进展分阶段进行资金拨付。

四、申报时间

截止8月30日

 

  省科技厅

  2019年7月29日

[  返回首页  ]

服务热线

18565668281(微信同号)

知识产权代理、高新技术企业认定、专精特新、专精特新小巨人企业认定、重点技术攻关、单项冠军,工程技术中心、专精特新

微信服务号

在线客服