@@ -1,8 +1,8 @@
> **Caution**
> [!IMPORTANT]
> 2024.1.16: 恭迎GLM4, 全力支持Qwen、GLM、DeepseekCoder等国内中文大语言基座模型!
>
> 2023.1 1.12 : 某些依赖包尚不兼容python 3.12, 推荐python 3.11。
>
> 2023.12.26: 安装依赖时,请选择`requirements.txt`中**指定的版本**。 安装命令:`pip install -r requirements.txt`。本项目完全开源免费,您可通过订阅[在线服务](https://github.com/binary-husky/gpt_academic/wiki/online)的方式鼓励本项目的发展。
> 2024. 1.17 : 某些依赖包尚不兼容python 3.12, 推荐python 3.11。
> 2024.1.17: 安装依赖时,请选择`requirements.txt`中**指定的版本**。 安装命令:`pip install -r requirements.txt`。本项目完全开源免费,您可通过订阅[在线服务](https://github.com/binary-husky/gpt_academic/wiki/online)的方式鼓励本项目的发展。
< br >
@@ -42,13 +42,11 @@ If you like this project, please give it a Star.
Read this in [English ](docs/README.English.md ) | [日本語 ](docs/README.Japanese.md ) | [한국어 ](docs/README.Korean.md ) | [Русский ](docs/README.Russian.md ) | [Français ](docs/README.French.md ). All translations have been provided by the project itself. To translate this project to arbitrary language with GPT, read and run [`multi_language.py` ](multi_language.py ) (experimental).
< br >
> 1.请注意只有 **高亮** 标识的插件(按钮)才支持读取文件,部分插件位于插件区的**下拉菜单**中。另外我们以**最高优先级**欢迎和处理任何新插件的PR 。
>
> 2.本项目中每个文件的功能都在[自译解报告](https://github.com/binary-husky/gpt_academic/wiki/GPT‐ Academic项目自译解报告)`self_analysis.md`详细说明。随着版本的迭代, 您也可以随时自行点击相关函数插件, 调用GPT重新生成项目的自我解析报告。常见问题请查阅wiki。
> [!NOTE]
> 1.本项目中每个文件的功能都在[自译解报告](https://github.com/binary-husky/gpt_academic/wiki/GPT‐ Academic项目自译解报告)`self_analysis.md`详细说明。随着版本的迭代, 您也可以随时自行点击相关函数插件, 调用GPT重新生成项目的自我解析报告。常见问题请查阅wiki 。
> [](#installation) [](https://github.com/binary-husky/gpt_academic/releases) [](https://github.com/binary-husky/gpt_academic/wiki/项目配置说明) []([https://github.com/binary-husky/gpt_academic/wiki/项目配置说明](https://github.com/binary-husky/gpt_academic/wiki))
>
> 3 .本项目兼容并鼓励尝试国产大语言模型Chat GLM等。支持多个api-key共存, 可在配置文件中填写如`API_KEY="openai-key1,openai-key2,azure-key3,api2d-key4"`。需要临时更换`API_KEY`时,在输入区输入临时的`API_KEY`然后回车键提交即可生效。
> 2 .本项目兼容并鼓励尝试国内中文大语言基座模型如通义千问,智谱 GLM等。支持多个api-key共存, 可在配置文件中填写如`API_KEY="openai-key1,openai-key2,azure-key3,api2d-key4"`。需要临时更换`API_KEY`时,在输入区输入临时的`API_KEY`然后回车键提交即可生效。
< br >< br >
@@ -56,7 +54,7 @@ Read this in [English](docs/README.English.md) | [日本語](docs/README.Japanes
功能(⭐= 近期新增功能) | 描述
--- | ---
⭐[接入新模型 ](https://github.com/binary-husky/gpt_academic/wiki/%E5%A6%82%E4%BD%95%E5%88%87%E6%8D%A2%E6%A8%A1%E5%9E%8B ) | 百度[千帆 ](https://cloud.baidu.com/doc/WENXINWORKSHOP/s/Nlks5zkzu )与文心一言, 通义千问[Qwen ](https://modelscope.cn/models/qwen/Qwen-7B-Chat/summary ), 上海AI-Lab[书生 ](https://github.com/InternLM/InternLM ),讯飞[星火 ](https://xinghuo.xfyun.cn/ ), [LLaMa2 ](https://huggingface.co/meta-llama/Llama-2-7b-chat-hf ), [智谱API ](https://open.bigmodel.cn/ ), DALLE3, [DeepseekCoder ](https://coder.deepseek.com/ )
⭐[接入新模型 ](https://github.com/binary-husky/gpt_academic/wiki/%E5%A6%82%E4%BD%95%E5%88%87%E6%8D%A2%E6%A8%A1%E5%9E%8B ) | 百度[千帆 ](https://cloud.baidu.com/doc/WENXINWORKSHOP/s/Nlks5zkzu )与文心一言, 通义千问[Qwen ](https://modelscope.cn/models/qwen/Qwen-7B-Chat/summary ), 上海AI-Lab[书生 ](https://github.com/InternLM/InternLM ),讯飞[星火 ](https://xinghuo.xfyun.cn/ ), [LLaMa2 ](https://huggingface.co/meta-llama/Llama-2-7b-chat-hf ), [智谱GLM4 ](https://open.bigmodel.cn/ ), DALLE3, [DeepseekCoder ](https://coder.deepseek.com/ )
润色、翻译、代码解释 | 一键润色、翻译、查找论文语法错误、解释代码
[自定义快捷键 ](https://www.bilibili.com/video/BV14s4y1E7jN ) | 支持自定义快捷键
模块化设计 | 支持自定义强大的[插件 ](https://github.com/binary-husky/gpt_academic/tree/master/crazy_functions ),插件支持[热更新 ](https://github.com/binary-husky/gpt_academic/wiki/%E5%87%BD%E6%95%B0%E6%8F%92%E4%BB%B6%E6%8C%87%E5%8D%97 )
@@ -65,7 +63,7 @@ Read this in [English](docs/README.English.md) | [日本語](docs/README.Japanes
Latex全文[翻译 ](https://www.bilibili.com/video/BV1nk4y1Y7Js/ )、[润色 ](https://www.bilibili.com/video/BV1FT411H7c5/ ) | [插件] 一键翻译或润色latex论文
批量注释生成 | [插件] 一键批量生成函数注释
Markdown[中英互译 ](https://www.bilibili.com/video/BV1yo4y157jV/ ) | [插件] 看到上面5种语言的[README ](https://github.com/binary-husky/gpt_academic/blob/master/docs/README_EN.md )了吗?就是出自他的手笔
chat分析报告生成 | [插件] 运行后自动生成总结汇报
⭐支持mermaid图像渲染 | 支持让GPT生成[流程图 ](https://www.bilibili.com/video/BV18c41147H9/ )、状态转移图、甘特图、饼状图、GitGraph等等( 3.7版本)
[PDF论文全文翻译功能 ](https://www.bilibili.com/video/BV1KT411x7Wn ) | [插件] PDF论文提取题目& 摘要+翻译全文(多线程)
[Arxiv小助手 ](https://www.bilibili.com/video/BV1LM4y1279X ) | [插件] 输入arxiv文章url即可一键翻译摘要+下载PDF
Latex论文一键校对 | [插件] 仿Grammarly对Latex文章进行语法、拼写纠错+输出对照PDF
@@ -77,7 +75,6 @@ Latex论文一键校对 | [插件] 仿Grammarly对Latex文章进行语法、拼
⭐AutoGen多智能体插件 | [插件] 借助微软AutoGen, 探索多Agent的智能涌现可能!
启动暗色[主题 ](https://github.com/binary-husky/gpt_academic/issues/173 ) | 在浏览器url后面添加```/?__theme=dark` ``可以切换dark主题
[多LLM模型](https://www.bilibili.com/video/BV1wT411p7yf)支持 | 同时被GPT3.5、GPT4、[清华ChatGLM2](https://github.com/THUDM/ChatGLM2-6B)、[复旦MOSS](https://github.com/OpenLMLab/MOSS)伺候的感觉一定会很不错吧?
⭐ChatGLM2微调模型 | 支持加载ChatGLM2微调模型, 提供ChatGLM2微调辅助插件
更多LLM模型接入, 支持[huggingface部署](https://huggingface.co/spaces/qingxu98/gpt-academic) | 加入Newbing接口(新必应),引入清华[Jittorllms](https://github.com/Jittor/JittorLLMs)支持[LLaMA](https://github.com/facebookresearch/llama)和[盘古α](https://openi.org.cn/pangu/)
⭐[void-terminal](https://github.com/binary-husky/void-terminal) pip包 | 脱离GUI, 在Python中直接调用本项目的所有函数插件( 开发中)
⭐虚空终端插件 | [插件] 能够使用自然语言直接调度本项目其他插件
@@ -152,10 +149,10 @@ Latex论文一键校对 | [插件] 仿Grammarly对Latex文章进行语法、拼
<details><summary>如果需要支持清华ChatGLM2/复旦MOSS/RWKV作为后端, 请点击展开此处</summary>
<p>
【可选步骤】如果需要支持清华ChatGLM2 /复旦MOSS作为后端, 需要额外安装更多依赖( 前提条件: 熟悉Python + 用过Pytorch + 电脑配置够强):
【可选步骤】如果需要支持清华ChatGLM3 /复旦MOSS作为后端, 需要额外安装更多依赖( 前提条件: 熟悉Python + 用过Pytorch + 电脑配置够强):
` ``sh
# 【可选步骤I】支持清华ChatGLM2 。清华ChatGLM备注: 如果遇到"Call ChatGLM fail 不能正常加载ChatGLM的参数" 错误,参考如下: 1: 以上默认安装的为torch+cpu版, 使用cuda需要卸载torch重新安装torch+cuda; 2: 如因本机配置不够无法加载模型, 可以修改request_llm/bridge_chatglm.py中的模型精度, 将 AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True) 都修改为 AutoTokenizer.from_pretrained("THUDM/chatglm-6b-int4", trust_remote_code=True)
# 【可选步骤I】支持清华ChatGLM3 。清华ChatGLM备注: 如果遇到"Call ChatGLM fail 不能正常加载ChatGLM的参数" 错误,参考如下: 1: 以上默认安装的为torch+cpu版, 使用cuda需要卸载torch重新安装torch+cuda; 2: 如因本机配置不够无法加载模型, 可以修改request_llm/bridge_chatglm.py中的模型精度, 将 AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True) 都修改为 AutoTokenizer.from_pretrained("THUDM/chatglm-6b-int4", trust_remote_code=True)
python -m pip install -r request_llms/requirements_chatglm.txt
# 【可选步骤II】支持复旦MOSS
@@ -197,7 +194,7 @@ pip install peft
docker-compose up
` ``
1. 仅ChatGPT+ 文心一言+spark等在线模型( 推荐大多数人选择)
1. 仅ChatGPT + GLM4 + 文心一言+spark等在线模型( 推荐大多数人选择)
[](https://github.com/binary-husky/gpt_academic/actions/workflows/build-without-local-llms.yml)
[](https://github.com/binary-husky/gpt_academic/actions/workflows/build-with-latex.yml)
[](https://github.com/binary-husky/gpt_academic/actions/workflows/build-with-audio-assistant.yml)
@@ -209,7 +206,7 @@ pip install peft
P.S. 如果需要依赖Latex的插件功能, 请见Wiki。另外, 您也可以直接使用方案4或者方案0获取Latex功能。
2. ChatGPT + Chat GLM2 + MOSS + LLAMA2 + 通义千问(需要熟悉[Nvidia Docker](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/install-guide.html#installing-on-ubuntu-and-debian)运行时)
2. ChatGPT + GLM3 + MOSS + LLAMA2 + 通义千问(需要熟悉[Nvidia Docker](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/install-guide.html#installing-on-ubuntu-and-debian)运行时)
[](https://github.com/binary-husky/gpt_academic/actions/workflows/build-with-chatglm.yml)
` `` sh
@@ -308,9 +305,9 @@ Tip: 不指定文件直接点击 `载入对话历史存档` 可以查看历史h
<img src="https://github.com/binary-husky/gpt_academic/assets/96192199/bc7ab234-ad90-48a0-8d62-f703d9e74665" width="500" >
</div>
8. OpenAI音频解析与总结
8. 基于mermaid的流图、脑图绘制
<div align="center">
<img src="https://github.com/binary-husky/gpt_academic/assets/96192199/709ccf95-3aee-498a-934a-e1c22d3d5d5b " width="500" >
<img src="https://github.com/binary-husky/gpt_academic/assets/96192199/c518b82f-bd53-46e2-baf5-ad1b081c1da4 " width="500" >
</div>
9. Latex全文校对纠错