报告人一:任炬,清华大学计算机系长聘副教授
报告地点:电子楼207
报告时间:2025年6月22日(周日)上午10:30-12:00
报告题目:端智能体关键技术
报告人简介:任炬,清华大学计算机系长聘副教授、媒体所所长,国家高层次人才入选者,国家优秀青年基金获得者,湖南省杰出青年基金获得者。研究领域包括物联网,边缘计算与边缘智能。在ACM/IEEE MobiCom, MobiSys, SenSys, Ubicomp, CCS, NDSS, ToN等国际会议和期刊上发表论文100余篇,出版教材/专著4部。主持承担了国家重点研发计划课题、国家自然科学基金重点项目、专项重点项目等国家级项目10余项。入选中国科协第四届青年人才托举工程、湖南省湖湘青年英才计划。曾获中国电子学会自然科学一等奖(排1)、中国电子学会首届青年科学家奖、达摩院青橙奖、 IEEE TCSC中期职业成就奖、IEEE通信学会亚太区最佳青年学者奖、多个国际会议最佳论文奖等荣誉,研究成果入选2023年度“中国物联网十大科技进展” (排1)。现担任IEEE/ACM Trans. Networking、IEEE Trans. Mobile Computing、IEEE Trans. Vehicular Technology、IEEE Trans. Cloud Computing等多个国际期刊编委,Chinese Journal of Electronics期刊领域主编。连续多年入选科睿唯安全球高被引科学家。现任中国电子学会理事,全国数标委数据治理标准工作组副组长,IEEE与ACM高级会员。多项国家发明专利实现产业转化,研究成果广泛应用于我国国防、通信、互联网等众多领域。
报告内容简介:随着大模型对复杂任务的推理与规划能力增强,当前工业界与学术界开始挖掘大模型对工具的使用能力,使智能体成为了当下大模型技术演进的热点方向。然而,现有研究主要集中于云上智能体构建与演进,如何构建端侧智能体仍面临性能和效能的双重挑战。本次报告将汇报我们团队在端侧智能体的构建方法与关键技术,探讨潜在的研究方向与应用场景。
报告人二:戴海鹏,南京大学计算机学院副教授
报告地点:电子楼207
报告时间:2025年6月22日(周日)上午10:30-12:00
报告题目:《AI增强的视频分析系统研究》
报告人简介:戴海鹏,南京大学计算机学院副教授,博导,国家级青年人才计划入选者。获ACM中国新星奖、IEEE可扩展计算技术委员会职业中期卓越研究成就奖、中国电子学会优秀科技工作者等荣誉。研究方向为物联网、数据挖掘、移动计算等。发表国际著名会议期刊论文270余篇,含CCF A类120余篇,包括SIGMOD、VLDB、ICDE、WWW、EuroSys、ATC、NSDI、UbiComp、INFOCOM等国际一流会议。曾获CCF A类会议INFOCOM最佳论文提名奖,CCF A类会议UbiComp杰出论文奖,CCF B类会议ICNP最佳论文奖,CCF B类会议SECON最佳论文奖亚军等。Google Scholar引用5600余次。担任国家重点研发计划项目课题负责人,主持和承担国自科面上、联合基金重点等项目十余项。荣获江苏省计算机学会科学技术奖一等奖(第一完成人)。担任ACM SIGCOMM China秘书长、中国计算机学会物联网专委会常委、网络与数据通信专委会常委等职务。担任ISPA、HPCC等十余次会议主席职务。担任国内外一流期刊COMNET领域主编、TII编委、电子学报青年编委等职务。
报告内容简介:如今,视频分析在交通监测、无人机监控等诸多领域得到了广泛的应用。现有视频分析的内容增强相关工作有效节省了带宽,并提高了分析的准确性。但现有基于内容增强的方法仍面临高计算成本、低吞吐量及复杂视觉任务表现不足等挑战。针对这些问题,首先使用深度强化学习和深度神经网络等技术,基于视频流的时间和空间相似性优化了内容增强视频分析系统,单流场景下延迟降低80%,准确性提升21%;在多流竞争环境中共同优化带宽和精度分配,使吞吐量提升9倍,带宽利用率提高52%。此外,引入低秩自适应技术,提高多模态大模型的表现能力,在零样本视觉任务中准确性提升62%,推理延迟降低89%。
报告人三:陈谐,上海交通大学计算机科学与工程系副教授
报告地点:电子楼207
报告时间:2025年6月22日(周日)上午10:30-12:00
报告题目:Advancing Speech Processing in Large Model Era: Practice in X-LANCE@SJTU

报告人简介:陈谐,上海交通大学计算机科学与工程系副教授,博士生导师,获国家海外高层次人才(青年)项目资助。博士毕业于剑桥大学信息工程系,先后在剑桥大学从事博士后研究,美国微软研究院任高级研究员和资深研究员。主要研究方向为深度学习,智能语音和声音信号处理,在本领域的国际权威会议和期刊发表论文100余篇。
报告内容简介:如今,视频分析在交通监测、无人机监控等诸多领域得到了广泛的应用。现有视频分析的内容增强相关工作有效节省了带宽,并提高了分析的准确性。但现有基于内容增强的方法仍面临高计算成本、低吞吐量及复杂视觉任务表现不足等挑战。针对这些问题,首先使用深度强化学习和深度神经网络等技术,基于视频流的时间和空间相似性优化了内容增强视频分析系统,单流场景下延迟降低80%,准确性提升21%;在多流竞争环境中共同优化带宽和精度分配,使吞吐量提升9倍,带宽利用率提高52%。此外,引入低秩自适应技术,提高多模态大模型的表现能力,在零样本视觉任务中准确性提升62%,推理延迟降低89%。