报告题目:可控视觉内容生成与编辑
报告人:李冠彬
报告地点: 42-320
报告时间:2026年3月13日(星期五)10:20-11:20
内容简介:
近年来,以扩散生成模型为代表的生成式 AI 模型能力日新月异,展现出令人瞩目的效果。在视觉内容生成及编辑领域,更符合用户意图及更具可控性与个性化的跨模态生成方法受到了学术界及产业界的广泛关注。已有的跨模态视觉生成方法在图像生成质量、美学感染力、跨模态结构及语义对齐、个性化生成、跨帧及多视角一致性等方面仍然存在诸多挑战。本次报告将围绕多模式条件驱动的可控视觉内容生成与编辑问题,介绍研究组从感知反馈学习、视频自监督一致性约束、跨模态调制与适配、蒸馏采样一致性等角度实现用户意图一致的个性化图像生成、图层化编辑、视频虚拟试穿、图文提示引导的3D场景编辑以及多模式控制的数字人生成等方面的研究成果及相关应用。
报告人简介:
李冠彬,中山大学计算机公司教授,博士生导师,国家优秀青年基金获得者。主要研究领域为人工智能领域的图像视频内容理解与生成。 迄今为止累计发表计算机学会A类/中科院一区论文 200 余篇,谷歌学术引用超过 20000次,入选全球前0.05%顶尖科学家榜单。曾获得中国图象图形学学会青年科学家奖、吴文俊人工智能优秀青年奖、ACM 中国新星提名奖、中国图象图形学学会科学技术一等奖、ICCV2019 最佳论文提名奖、CVPR2024最佳论文候选等荣誉。主持了包括国家自然科学基金优青、面上、青年、重点研发课题、广东省杰青、 CCF-腾讯犀牛鸟科研基金、CCF-快手科研基金、华为科研合作基金等 20 多项科研项目。担任广东省大数据分析与处理重点实验室副主任、广东省图象图形学会计算机视觉专委会主任、中国图象图形学学会青工委副秘书长、中国计算机学会青年科技论坛广州主席等职务。担任人工智能领域顶级会议CVPR、ECCV、AAAI等领域主席,获得10余项人工智能领域国际顶级会议竞赛冠军,研究成果应用于智能交通分析、智慧医疗诊断、数字人驱动的智慧教育等。