乾元BigBangTransformer BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
Tabby Tabby是一个自托管的人工智能编程助手,为开发人员提供了一个开源和本地部署的替代方案,支持通过利用第三方开源代码大模型(如StarCoder、CodeLlama、DeepseekCoder)以实现类似...