年度关键技术研发计划“元宇宙”项目即将启动申报,来看详情→

为加快建设具有全球影响力的科技创新中心,强化上海市元宇宙领域科技创新策源功能,根据《上海元宇宙关键技术攻关专项行动方案(2023-2025年)》,上海市科学技术委员会发布2025年度关键技术研发计划“元宇宙”项目申报指南。来看详情↓

一、征集范围

专题一、AI赋能技术攻关

研究目标:研制具备交互能力的视频生成多模态大模型,支持基于人类语言指令交互的视频生成能力,达到4K分辨率44.1kHz音频的高保真动态,生成连续视频时长≥30秒,面向短视频、游戏领域开展产业化应用示范。

研究内容:研究基于物理规律建模、时序一致性建模等路径的视频生成技术,研究多轮指令理解与交互技术,支持人类语言驱动的视频持续生成,构建基于文本、图像等多模态输入的视频大模型,实现视频内容的智能生成、理解与交互。

经费额度:非定额资助,拟支持不超过2个项目,每项资助额度不超过200万元,企业牵头申报时,自筹经费与申请资助经费的比例不低于2:1。

方向2.沉浸式三维全景编辑系统

研究目标:开发面向三维全景内容的新型视频编辑系统,支持对三维场景的精确控制,实现毫秒级场景编辑与8K分辨率实时交互渲染,面向主流互联网流媒体平台开展产业化示范应用,形成1项国际标准提案并获采纳。

研究内容:面向元宇宙沉浸式内容制作需求,研发三维全景内容编辑系统,开展轻量化AI技术优化、高清晰度高帧率交互式渲染优化、自适应编码等关键技术攻关。

经费额度:非定额资助,拟支持不超过1个项目,每项资助额度不超过200万元,企业牵头申报时,自筹经费与申请资助经费的比例不低于2:1。

方向3.数字人生成驱动系统

研究目标:研究数字人生成驱动系统,实现虚拟人高精度建模与绑定,支持高精度基于物理的渲染材质扫描、亚毫米级重建精度,基于文字、音频、视频等多模态方式实时驱动表情动作,动作捕捉全局延迟≤5ms,采集速率≥120Hz,面向影视、会展等领域开展产业化示范应用。

研究内容:研发数字人生成与驱动技术,突破高精度时空动作重构与人脸表情的逼真模拟技术,开发高精度低成本的AI驱动动捕设备,建设元宇宙中虚拟人等基础能力。

经费额度:非定额资助,拟支持不超过1个项目,每项资助额度不超过200万元,企业牵头申报时,自筹经费与申请资助经费的比例不低于2:1。

专题二、XR重点产品开发

方向4.可穿戴智能眼镜

研究目标:(1)研发超轻量化结构的智能眼镜,重量<50g,确保长时间佩戴的舒适性,具备AI多模态识别和交互能力,达到产业化规模量产;(2)研发增强现实智能眼镜,重量<100g,支持全高清(FHD)级或以上视场显示,提供虚实场景间厘米级的空间映射精度,MTP延迟<10ms,达到产业化规模量产。

研究内容:(1)研究全天候佩戴的超轻量化结构设计的智能眼镜,开发轻量化高效能的语音识别、图像识别、自然语言处理边缘算法,实现自然流畅的人机交互;(2)开发高性能轻量化增强现实智能眼镜,搭载具备超低延迟边缘算力的处理器芯片,研发双目SLAM定位、6DoF头部/手势追踪、平面检测与虚实遮挡处理等环境感知算法,实现感知算法低功耗、低延迟优化部署。

经费额度:非定额资助,拟支持不超过2个项目,每项资助额度不超过300万元,企业自筹经费与申请资助经费的比例不低于2:1。

申报主体要求:本市企业。

方向5.混合现实头显

研究目标:开发单眼分辨率≥4K、视场角≥105°、刷新率≥90Hz的混合现实头显,构建基于图像、手势、空间锚点等多模态融合感知体系的混合现实开发框架,支持万平米级大场景下的厘米级快速标定和精准识别的虚实融合体验,达到产业化规模量产。

研究内容:研究高清视觉呈现、自然交互及轻量化硬件集成等关键技术,开发具有高清沉浸显示与多模态自然交互能力的混合现实头显。

经费额度:非定额资助,拟支持不超过1个项目,每项资助额度不超过300万元,企业自筹经费与申请资助经费的比例不低于2:1。

申报主体要求:本市企业。

方向6.消费级光波导模组

研究目标:开发近眼显示全彩光波导显示镜片及模组,光效满足典型自然光照条件下的显示需求,视场角>50°,厚度<1mm,基本消除“彩虹”和光晕缺陷,面向消费级AR眼镜实现产业化规模量产。

研究内容:开发适用于AR眼镜的光波导模组,推动轻量化消费级AR眼镜的量产。

经费额度:非定额资助,拟支持不超过1个项目,每项资助额度不超过300万元,企业自筹经费与申请资助经费的比例不低于2:1。

申报主体要求:本市企业。

方向7.智能眼镜SoC芯片

研究目标:研制自主知识产权的超低功耗智能眼镜SoC芯片及开发套件,支持高清视频流的实时处理与本地化大模型推理,满足消费级智能眼镜在图像识别、语音交互与场景理解等智能应用中的实时性与能效需求,面向消费级智能眼镜实现市场化规模量产。

研究内容:基于异构多核计算单元的混合架构,研制面向消费级可穿戴智能眼镜的SoC芯片,开发基于RTOS的SDK及NPU工具链。

经费额度:非定额资助,拟支持不超过1个项目,每项资助额度不超过300万元,企业自筹经费与申请资助经费的比例不低于2:1。

申报主体要求:本市企业。

方向8.裸眼3D显示设备

研究目标:研制高性能光场裸眼3D智能终端,支持8K超高清光场裸眼3D显示,三维模型实时渲染与显示帧率≥60Hz,支持多人多角度3D观看,3D出入屏纵深≥0.5m,在教育、医疗、文旅等领域开展产业化示范应用。

研究内容:研制高性能光场裸眼3D智能终端,构建高效、高精度的光场内容生成与处理体系,实现面向真三维光场的亿级信息单元实时重建,开发具备亚微米级精度的全贴合光学调制器件,提升显示系统的成像质量与集成度。

经费额度:非定额资助,拟支持不超过1个项目,每项资助额度不超过300万元,企业自筹经费与申请资助经费的比例不低于2:1。

申报主体要求:本市企业。

专题三、应用场景示范

方向9.元宇宙创新体验场景

研究目标:聚焦教育、医疗、文博、电影、体育等领域,构建可快速复制的创新体验验证场景,推动元宇宙技术迭代优化与规模化应用。场景需具备技术先进性、领域适配性及商业可推广可复制,建设地点需位于本市。

研究内容:(1)元宇宙教育场景:面向教育机构教学场景,应用MR/AR技术构建沉浸式教学空间,开发适配多硬件终端的轻量化解决方案。具备3D数字人教师采集、个性化学习路径规划及跨学科虚拟实验等功能。在不少于5所学校开展产业化应用示范。(2)元宇宙医疗场景:面向医疗机构诊疗场景,应用快速数字建模、AIGC等技术开发覆盖诊前-诊中-诊后的精准医疗平台。具备沉浸式手术导引、个性化医疗等功能。在不少于3家医疗机构开展产业化示范应用。(3)元宇宙文博场景:面向文博场馆游览场景,应用沉浸式VR技术、超高清无线传输技术等开发XR沉浸式文旅体验项目。实现高精度复刻真实场景,提供沉浸式游览体验。在不少于3个文博场所开展产业化示范应用。(4)虚拟现实电影:面向虚拟现实电影制播场景,开发虚拟现实电影高效、高质量内容生产技术,研制适配虚拟现实电影的新型制作分发平台,支撑不少于1部虚拟现实电影的制作和审批。(5)虚拟体育赛事:面向竞技或群众体育领域,开发基于XR技术的沉浸式线上元宇宙平台,适配不少于2种运动项目。平台支持实时专业参数显示(如力反馈、频率、功率、速度等),支持同步硬件设备数据、多人跨空间实时竞技、竞赛(训练)报告生成等功能,开发不少于2类虚拟场景(如赛道、训练场),在本地自主IP赛事开展产业化示范应用。

经费额度:非定额资助,拟支持不超过5个项目,每项资助额度不超过400万元,企业牵头申报时,自筹经费与申请资助经费的比例不低于2:1。

申报主体要求:本市法人或非法人组织。鼓励本市场景需求单位、建设单位和设备生产单位联合申报。

二、申报要求

除满足前述相应条件外,还须遵循以下要求:

1.项目申报单位应当是注册在本市的法人或非法人组织,具有组织项目实施的相应能力。

2.对于申请人在以往市级财政资金或其他机构(如科技部、国家自然科学基金等)资助项目基础上提出的新项目,应明确阐述二者的异同、继承与发展关系。

3.所有申报单位和项目参与人应遵守科研诚信管理要求,项目负责人应承诺所提交材料真实性,申报单位应当对申请人的申请资格负责,并对申请材料的真实性和完整性进行审核,不得提交有涉密内容的项目申请。

4.申报项目若提出回避专家申请的,须在提交项目可行性方案的同时,上传由申报单位出具公函提出回避专家名单与理由。

5.所有申报单位和项目参与人应遵守科技伦理准则。拟开展的科技活动应进行科技伦理风险评估,涉及科技部《科技伦理审查办法(试行)》(国科发监〔2023〕167号)第二条所列范围科技活动的,应按要求进行科技伦理审查并提供相应的科技伦理审查批准材料。

6.已作为项目负责人承担市科委科技计划在研项目2项及以上者,不得作为项目负责人申报。

7.项目经费预算编制应当真实、合理,符合市科委科技计划项目经费管理的有关要求。

三、申报方式

有关操作可参阅在线帮助。

四、评审方式

专题一、专题二采用一轮通讯评审方式。

专题三应用场景示范采用第一轮通讯评审、第二轮见面会评审方式。

五、立项公示

上海市科学技术委员会将按规定向社会公示拟立项项目清单,接受公众异议。

THE END
0.即创数字人成片创作遇瓶颈?加入组织三步破解"困局指南使用思维导图梳理核心观点,将数字人角色定位、场景需求、传播目标等关键要素可视化呈现。如科普类数字人需突出知识图谱,营销类则应强化产品逻辑链。其次采用模块化创作法,将长篇内容拆解为3-5分钟单元模块,每个模块设置独立主题锚点,通过转场动画实现自然衔接。最后运用AI工具进行智能优化,多数数字人生成平台配备结构检测jvzquC41o0ypj~3eqo5b1A<3;9:87=d344636<931
1.虚拟数字人全景解读:一文读懂数字人进化史动作捕捉技术是赋予数字人生动自然肢体动作的重要手段。通过该技术,演员的真实动作能够被实时捕捉并精确地映射到数字人身上,使数字人能够呈现出与演员相同的动作姿态和表情变化。 动作捕捉技术主要分为光学动作捕捉和惯性动作捕捉两种类型。光学动作捕捉系统通常由多个摄像头组成,通过拍摄演员身上佩戴的反光标记点的位置和运动轨迹,来计算出演员 jvzquC41dnuh0lxfp0tfv8xjk{uvvnhj1cxuklqg1fkucrqu13:649=676
2.数字人生成视频数字人生成高清原创视频下载新片场社区汇聚全球优秀创作人和海量作品精选出417条数字人生成等4K原创短视频,覆盖数字人生成相关的广告,宣传片,剧情短片,创意混剪,婚礼,纪录片,特殊摄影,旅拍,Vlog,影视干货教程,音乐MV等数字人生成无水印高清视频案例学习下载jvzquC41yy}/zrsrkctdjjsi0eun1|jcten03:=6977
3.如何使用ChatGPT制作免费的数字人2.数字人生成网站: http://heygen.com- AI Spokesperson Video Creato 2.1 注册过ChatGPT的应该都有Google,建议直接点击Google登录。 2.2进入界面之后,点击右上角的Creat Video 进入创建项目。 2.3 进入界面后,按下图所示,在红色数字1和2的位置可以上传在MJ或者Leo制作好的图片,建议是正面的头像,不然嘴型怪怪的jvzquC41fg|fnxugt0gmk‚zp0eun1jwvkerf1:97:967
4.数字人——GPT4下的杀手级应用数字人新浪财经2 数字人生成关键技术 一个数字人从诞生到输出价值,离不开建模、动补、语言、语音、情绪这几个基础工作。建模用于创建高保真的数字人模型,包括面部、身体、服装、发型等细节。动补用于捕捉真实人物的动作和表情,并映射到数字人模型上,呈现真实、自然的连贯动画效果。 jvzq<84hkpgoen3ukpg/exr0ep5cnxhmejgjp872453156661fud/rr{mxkle>6;8;770|mvon
5.智能体验再升级,彩讯股份打造“5G新通话”全场景AIGC应用10月11日—13日,在2024中国移动全球合作伙伴大会上,彩讯股份推出的3D数字人生成、图生音乐彩灵、AI智舞、AI来电秘书等AIGC产品全面登场,打造贯穿“5G新通话”前中后外的全场景智慧应用。 随着通信技术的飞速发展,特别是5G时代的到来,传统的通话界面与功能已难以满足用户对多元化、个性化通信体验的需求。以往,通话仅jvzquC41yy}/ewnk0eun0ls1iz~xy8wo{fh04976325u49763275a?5925;/j}rn
6.上海发布元宇宙关键技术攻关两年行动方案—新闻—科学网·重点布局人工智能生成内容(AIGC)、跨尺度采集重建、数字人生成与驱动、虚拟空间三维引擎等关键技术研发。 ·面向“元宇宙”去中心化/多中心化的组织规则,基于异构多链融合技术路线,重点布局Web3.0网络操作系统、区块链数字身份、分布式可信存储、可信计算芯片等支撑技术和数字监管技术研发,构建高性能、可扩展和安全可控jvzquC41pg}t0|hkgpifpny0ep5ivvqpgyy0497518562;=440yivv
7.上海:加快“元宇宙”技术体系化突破主攻沉浸式技术与Web3技术面向“元宇宙”海量沉浸影音内容生产的需求,基于AI赋能虚实融合的技术路线,重点布局人工智能生成内容(AIGC)、跨尺度采集重建、数字人生成与驱动、虚拟空间三维引擎等关键技术研发,实现超写实“元宇宙”沉浸影音内容的自动化、低成本生产,支撑“元宇宙”内容创作生态建设。 jvzquC41pg}t0lsuvqil0lto1pkxu5gymz332;828/;19?6460nuo
8.小K播早报|“十四五”国家信息化规划:到2025年数字中国建设取得百度推出数字人生成平台“曦灵” 在百度Create 2021(百度AI开发者大会)上,百度CTO王海峰表示,为了进一步降低数字人的应用门槛,百度智能云正式推出数字人平台——百度智能云曦灵,为各行各业提供多种数字人生成和内容生产服务。数字人可以24小时无休为用户提供服务。 jvzquC41o071lzpc0eun0ls142823;7:1e<47==7928/uqyon
9.京东云言犀数字人3.0平台全新升级开启下一代智能人机交互全新发布的言犀数字人3.0平台,基于京东言犀大模型及多模态交互能力,实现了从单一产品到智能平台化的跨越。支持企业和个人用户根据自身需求,实现小时级、个性化、风格化的数字人生成。全新升级后,平台上线100+个性化角色,50+行业特定属性场景,实现零配置下覆盖90%的常见问询,商品推荐应答准确率超90%,让个性化、可定制的jvzquC41yy}/eww0ep5uglm1vgiirq4424:1:971v46369=24a;38A7:;79/uqyon
10.「科普大佬说」以计算机图形学的视点看元宇宙发展元宇宙基本要素:人、物和场景 数字内容创作的数量和质量决定了元宇宙体验的质量 基于动态纹理表达的数字人生成 核心思想 人体纹理特征同时包含静态外观信息和动态细节特征 神经网络易于拟合低频函数,增加数据流形复杂度有助于高频信号的学习 真实世界数字化-NeRFEditingjvzq<84yyy4uy€yp0eun1jwvkerf1;5442<04?::70nuou
11.中国图象图形学学会第六期学生会员分享论坛会议通知报告题目:Next3D: 超写实3D数字人生成与驱动 报告摘要:目前3D GAN在虚拟人生成上,无法对面部表情,眨眼,凝视方向进行细粒度控制。为了解决这些问题,我们提出了Next3D: 一种新颖的可驱动3D GAN框架。该框架可从非结构化2D图像中无监督地学习生成高保真和多视角一致的3D虚拟人像,并且在驱动处理上,可以实现全头旋转,面jvzquC41yy}/e|ni0qxh0ls144532;82;1;24B<0jvsm