葡京娱乐场在线赌场

葡京娱乐场在线赌场
葡京娱乐场概况
葡京娱乐场简介
院长致辞
领导团队
历史沿革
师资队伍
教职人员
实验室人员
科学研究
研究团队
研究进展
支撑平台
人才培养
本科生教育
研究生教育
党团工作
党建工作
团建工作
教师风采
校友寄语
招生录取
本科生招生
研究生招生
暑期研学营
国际交流
交流访问
学术会议
最新动态
学术讲座
通知公告
综合新闻
葡京娱乐场在线赌场
邮箱登录
材料计算与物质模拟
高泽峰讲师

办公地点:北园物理楼307B

电子邮箱:[email protected]

电  话:010-82503678

传  真:010-82503678

研究组主页:www.gaozefeng.tech

个人简介

中国人民大学青年英才,葡京娱乐场在线赌场 讲师。研究方向为量子物理数值方法、预训练模型压缩、AI辅助功能性晶体材料的发现与生成。基于矩阵乘积算符表示的神经网络、针对语音增强领域的模型压缩和小型化和面向预训练模型的轻量化微调与模型扩容三个方面,构建了基于矩阵乘积算符表示的理论方法。同时,应用人工智能方法辅助功能性新材料发现。已在本领域相关的国内外学术期刊和会议上发表论文二十余篇,涵盖ACL、NeurIPS、EMNLP、COLING等人工智能重要会议和Phys.Rev.Research、IEEE TASLP等SCI重要期刊。其中,基于矩阵乘积算符实现预训练模型的过参数化过程的工作获得ACL2023最佳论文提名。研究成果被来自剑桥大学、斯坦福大学、Meta公司等科研机构的领域专家引用。近三年主持基金6项,包括国家自然科学基金青年科学基金项目1项、国家自然科学基金面上项目1项、国家自然科学基金重点项目(子课题)1项与横向项目3项。


教育经历
  • 2016年-2021年,中国人民大学,物理系,博士

  • 2012年-2016年,中国人民大学,物理系,学士




工作经历

2021年7月-2024年6月:中国人民大学高瓴人工智能学院,博士后 合作导师:文继荣 教授

2024年7月至今: 中国人民大学葡京娱乐场在线赌场 ,讲师、副研究员

研究兴趣

Phys for AI:
大语言模型;模型压缩;模型扩容;
AI for Phys:
科学智能;AI驱动的功能性新材料发现; 物理信息人工智能理论与方法

人才培养

常年招收博士/硕士研究生、实习生(包含本科生)

要求:1. 对科研工作富有热情 2. 勤奋好学 3. 有扎实的理论功底


指导学生(含联合指导):

韩小琪,中国人民大学葡京娱乐场在线赌场 (博士生,2024年至今)

姚博文,中国人民大学葡京娱乐场在线赌场 (硕士生,2022年至今)



教授课程

2022-2023 春季:  人工智能概论(本科生课程)

2022-2023 秋季:人工智能与物理学(本科生课程)

2024-2025 秋季:人工智能与物理学(本科生课程)


科研项目

主持项目:

  1. 国家自然科学基金委,面上项目,大规模预训练语言模型的高效压缩方法研究(Nos. 62476278),主持

  2. 国家自然科学基金委,青年项目,大规模预训练语言模型的轻量化微调与模型扩容方法研究(Nos. 62206299),主持

  3. 国家自然科学基金委,重点项目子课题,强关联电子材料超快动力学的第一性原理多体计算方法研究(Nos.12434009),主持

  4. 北京市智源人工智能研究院,横向项目,基于矩阵乘积算符的多模态模型的轻量化微调,主持

  5. CCF-智谱大模型项目,横向项目,基于张量分解的预训练模型压缩策略,主持

  6. 中国科学院大学外协项目,横向项目,面向非线性动力系统建模的物理启发深度图学习理论与技术,主持


参与项目:

  1. 国家自然科学基金委,面上项目,基于物理嵌入深度图学习的复杂时空系统科学计算理论与算法(Nos. 62276269)

  2. 国家自然科学基金委,面上项目,张量网络与神经网络在强关联系统中的结合、发展与应用(Nos. 11874421)

  3. 国家自然科学基金委,面上项目,基于自然轨道重整化群对量子杂质系统中若干问题的研究(Nos. 11774422)

  4. 国家自然科学基金委,面上项目,多体局域化的若干问题研究(Nos. 11874421)

  5. 北京自然科学基金委,重点研究专题,离子阱量子计算技术与算法的研究

 

     

  


学术论文

更多论文参考个人主页://www.gaozefeng.tech 

  1. Liu Peiyu; Gao, Ze-Feng; Zhao, Wayne Xin; Ma Yipeng; Wang Tao; Wen, Ji-Rong; Unlocking Data-free Low-bit Quantization with Matrix Decomposition for KV Cache Compression, Association for Computational Linguistics. (ACL 2024)

  2. Liu Peiyu#; Gao, Ze-Feng# ; Zhao, Wayne Xin; Xie Zhi-Yuan; Lu Zhong-Yi; Wen, Ji-Rong; Enabling Lightweight Fine-tuning for Pre-trained Language Model Compression based on Matrix Product Operators, Association for Computational Linguistics. (ACL 2021)

  3.  Liu Peiyu#; Gao, Ze-Feng# ; Zhang Xiao; Zhao, Wayne Xin; Wen Ji-Rong; Enhancing Parameter-efficient Fine-tuning with Simple Calibration based on Stable Rank.International Conference on Computational Linguistics. (COLING 2024)

  4. Gao Ze-Feng; Zhou kun; Liu Peiyu; Zhao Wayne Xin; Wen Ji-Rong; Small Pre-trained Language Models Can be Fine-tuned as Large Models via Over-Parameterization, Association for Computational Linguistics. (ACL 2023) (Nominated for Best Paper Award)

  5. Liu Peiyu; Liu Zikang; Gao, Ze-Feng ; Gao Dawei; Zhao, Wayne Xin; Li Yaliang; Ding Bolin; Wen Ji-Rong; Do Emergent Abilities Exist in Quantized Large Language Models: An Empirical Study. International Conference on Computational Linguistics. (COLING 2024)

  6. Gao, Ze-Feng; Liu Peiyu; Zhao, Wayne Xin; Wen, Ji-Rong; Parameter-Efficient Mixture-of-Experts Architecture for Pre-trained Language Models. International Conference on Computational Linguistics. (COLING 2022)

  7. Liu Peiyu#; Gao, Ze-Feng# ; Chen Yushuo; Zhao Wayne Xin; Wen Ji-Rong; Enhancing  Scalability of Pre-trained Language Models via Efficient Parameter Sharing. Conference on Empirical Methods in Natural Language Processing. (EMNLP 2023)

  8. Gao, Ze-Feng; Cheng Song; He Rong-Qiang; Xie Zhi-Yuan; Zhao Hui-Hai; Lu Zhong-Yi; Xiang Tao; Compressing Deep Neural Networks by Matrix Product Operators, Physical Review Research 2 (2), 023300, 2020 (Physical Review Research).

  9. Sun Xingwei# ; Gao, Ze-Feng# ; Lu Zhong-Yi; Li Junfeng; Yan Yonghong; A Model Compression Method With Matrix Product Operators for Speech Enhancement. IEEE/ACM Transactions on Audio, Speech, and Language Processing. (IEEE TASLP)

  10. Wang Jiaqi; Gao Ze-Feng* ; Li Yongfeng; Wang Lu; Numerical research of optimization FeimiNet using self-attention mechanism. Journal of Tianjin Normal University (Natural  Science Edition), 2022.

  11. Gao Ze-Feng; Liu Peiyu; Zhao Wayne Xin; Xie Zhi-Yuan; Wen Ji-Rong; Lu Zhong-Yi; Compression Image Dataset Based on Multiple Matrix Product States. Future of Information  and Communication Conference. (FICC 2024)

  12. Liu Peiyu; Yao Bowen; Gao Ze-Feng*; Zhao Wayne Xin; Matrix Product Operator based Sequential Recommendation Model. China Conference on Information Retrieval. (CCIR 2023)

    # 共同第一作者        * 通讯作者


荣誉奖励

2023.05 ACL 2023 最佳论文提名


2020.09 博士研究生国家奖学金


社会兼职

CCIR 程序委员

WSDM 程序委员

EMNLP,ACL,ACCV,WSDM 审稿人


联系方式

邮箱:[email protected]

小组微信公众号:DQMLab

办公电话:010-82503678

个人网页://zfgao66.github.io/homepage/

办公地址:物理楼307B