返回论文列表
Paper Detail
Dual-Space Knowledge Distillation with Key-Query Matching for Large Language Models with Vocabulary Mismatch基于键-查询匹配的双空间知识蒸馏方法用于大语言模型词汇不匹配问题
cs.CL大语言模型端到端Transformer热门获取
Anonymous
2026年03月23日
arXiv: 2603.22056v1

作者人数

1

标签数量

4

内容状态

含 PDF

原文 + 中文

同页查看标题和摘要的双语信息

PDF 预览

直接在详情页阅读或下载论文全文

深度分析

继续下钻到 AI 生成的结构化解读

摘要 / Abstract

This paper addresses the challenge of knowledge distillation between large language models with different tokenizers. The authors systematically analyze the attention mechanism of Dual-Space Knowledge Distillation with Cross-Model Attention (DSKD-CMA), revealing its strengths and limitations through token alignment probing and visualization. They propose DSKD-CMA-GA, a novel method leveraging Generative Adversarial learning to better align mismatched key-query distributions across models. Experimental results demonstrate consistent improvements in text generation quality as measured by ROUGE-L scores, offering a more transparent and effective approach to compressing large language models for efficient deployment.

本文研究了具有不同分词器的大语言模型之间的知识蒸馏问题。作者系统分析了跨模型注意力双空间知识蒸馏(DSKD-CMA)的注意力机制,通过标记对齐探测和可视化揭示其优势与局限。提出DSKD-CMA-GA方法,利用生成对抗学习更好地对齐跨模型间不匹配的键-查询分布。实验结果表明文本生成质量在ROUGE-L指标上获得一致提升,为高效压缩部署大语言模型提供了更透明有效的方案。

PDF 预览
1
在 arXiv 查看下载 PDF

分类 / Categories

cs.CLcs.AI

深度分析

AI 深度理解论文内容,生成具有洞见性的总结