Update README.md
Browse files- README.md +4 -0
- README_zh.md +4 -0
README.md
CHANGED
|
@@ -15,6 +15,10 @@ pipeline_tag: text-generation
|
|
| 15 |
|
| 16 |
# CodeGeeX4: Open Multilingual Code Generation Model
|
| 17 |
|
|
|
|
|
|
|
|
|
|
|
|
|
| 18 |
[中文](./README_zh.md)
|
| 19 |
|
| 20 |
[GitHub](https://github.com/THUDM/CodeGeeX4)
|
|
|
|
| 15 |
|
| 16 |
# CodeGeeX4: Open Multilingual Code Generation Model
|
| 17 |
|
| 18 |
+
<center>
|
| 19 |
+
<img src="https://raw.githubusercontent.com/THUDM/CodeGeeX4/main/resources/logo.jpeg" alt="CodeGeeX4">
|
| 20 |
+
</center>
|
| 21 |
+
|
| 22 |
[中文](./README_zh.md)
|
| 23 |
|
| 24 |
[GitHub](https://github.com/THUDM/CodeGeeX4)
|
README_zh.md
CHANGED
|
@@ -1,5 +1,9 @@
|
|
| 1 |
# CodeGeeX4: 开源多语言代码生成模型
|
| 2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
| 3 |
[CodeGeeX4 GitHub](https://github.com/THUDM/CodeGeeX4)
|
| 4 |
|
| 5 |
我们推出了 CodeGeeX4-ALL-9B,这是最新的 CodeGeeX4 系列模型的开源版本。该模型是在 [GLM-4-9B](https://github.com/THUDM/GLM-4) 基础上持续训练的多语言代码生成模型,显著提升了代码生成能力。使用单个 CodeGeeX4-ALL-9B 模型,可以支持代码补全与生成、代码解释、联网搜索、函数调用、仓库级代码问答等多种功能,覆盖了软件开发的各个场景。CodeGeeX4-ALL-9B 在 [BigCodeBench](https://huggingface.co/datasets/bigcode/bigcodebench) 和 [NaturalCodeBench](https://github.com/THUDM/NaturalCodeBench) 等公开基准测试中取得了极具竞争力的表现。它是目前参数量少于 100 亿的最强代码生成模型,甚至超越了更大的通用模型,在推理速度和模型性能方面达到了最佳平衡。
|
|
|
|
| 1 |
# CodeGeeX4: 开源多语言代码生成模型
|
| 2 |
|
| 3 |
+
<center>
|
| 4 |
+
<img src="https://raw.githubusercontent.com/THUDM/CodeGeeX4/main/resources/logo.jpeg" alt="CodeGeeX4">
|
| 5 |
+
</center>
|
| 6 |
+
|
| 7 |
[CodeGeeX4 GitHub](https://github.com/THUDM/CodeGeeX4)
|
| 8 |
|
| 9 |
我们推出了 CodeGeeX4-ALL-9B,这是最新的 CodeGeeX4 系列模型的开源版本。该模型是在 [GLM-4-9B](https://github.com/THUDM/GLM-4) 基础上持续训练的多语言代码生成模型,显著提升了代码生成能力。使用单个 CodeGeeX4-ALL-9B 模型,可以支持代码补全与生成、代码解释、联网搜索、函数调用、仓库级代码问答等多种功能,覆盖了软件开发的各个场景。CodeGeeX4-ALL-9B 在 [BigCodeBench](https://huggingface.co/datasets/bigcode/bigcodebench) 和 [NaturalCodeBench](https://github.com/THUDM/NaturalCodeBench) 等公开基准测试中取得了极具竞争力的表现。它是目前参数量少于 100 亿的最强代码生成模型,甚至超越了更大的通用模型,在推理速度和模型性能方面达到了最佳平衡。
|