浙江大学 CAD&CG 全国重点实验室硕士研究生,研究方向为人机交互与智能可视化(LLM4Vis · NLI4Vis · Chart Generation)。
专业技能
教育经历
导师:巫英才 研究方向:LLM4Vis · NLI4Vis · Chart Generation
项目 & 论文
新手在多轮可视分析对话中频繁"迷路":线性界面无法追踪分支探索、难以回溯历史决策,认知负担持续积累。ToA 将分析对话重组为可分支、可回溯的"分析树",让用户得以随时定位当前位置、自由切换探索路径。对照实验(N=12)表明:洞察数量增加 58.3%,深度思考时间增加 17%。
LLM Agent 执行数据叙事任务时,中间步骤杂乱无序、过程不透明,用户只能被动等待结果。NarraSteer 将 Agent 的执行过程重组为可拖拽的故事线,让用户得以实时介入、主动调整叙事方向,从旁观者变成导演。对照实验(N=16)表明:洞察密度提升 13%,心理负荷显著下降(p<.05),感知可控性显著提升(p<.05)。
政府用户在舆情监控、研判、处置过程中面临信息分散、流程割裂的挑战。承接国家重点研发计划,主导平台从 0 到 1 的产品设计:深入调研业务场景后,规划可视化大屏、工作台仪表盘、可视化中台三层信息架构,让不同角色各得其所,并协调五大技术团队推动方案落地交付。
传统文化展演依赖静态展板,难以带给观众沉浸感与互动体验。以滕王阁图为主题,独立完成从场景建模、渲染、Shader 编写到雷达体感交互的完整开发链路,最终交付可运行的沉浸式展演装置。项目入选央视《闪光的青春——2024 五四青年节特别节目》,提供拍摄素材与 3D 资产。
远程办公使设计师团队的协作愈发依赖视频会议,但传统工具难以支撑空间化的创意讨论。通过用户调研明确核心痛点后,主导从 VR 交互规范制定、协作工具设计到 PC 端管理系统的全链路产出,让设计师在虚拟空间中实现自然、高效的远程共创。
传统 AI 图像生成依赖大量训练数据,难以应用于稀缺的传统艺术风格。主动探索小样本生成的可行性,创新性地将 Stable Diffusion + LoRA + ControlNet 组合应用于齐白石国画风格化,将所需训练数据从 1000 张压缩至 15 张,让 AI 得以还原草虫、花木等题材的笔墨意境。生成动效视频受邀参加中国美术家协会展览。
L3 自动驾驶在变道情境下需要驾驶员快速接管,但现有 HMI 系统信息传达不足,易引发接管失误。与华为 UCD 部门校企合作,深入调研驾驶员在变道情境下的感知与决策过程,识别关键信息断层后完成 HMI 系统设计,覆盖感知、决策、行为全链路的驾驶员信息传达,提升接管安全性与舒适性。
保持联系