在线聊天
在线聊天
在线聊天,我们的免费对话界面。开发人员可以自然直观地与Codestral交互,以利用模型的功能。我们将Codestral视为赋予每个人代码生成和理解能力的新垫脚石。
在您最喜欢的编码和构建环境中使用Codestral。
我们与社区合作伙伴合作,让Codestral接触到流行的工具,以提高开发人员的生产力和人工智能应用程序的制作。
应用程序框架。 Codestral从今天开始集成到LlamaIndex和LangChain中,这允许用户使用Codestral轻松构建代理应用程序
VSCode/JetBrains集成。 Continue.dev 和 表九 使开发人员能够在VSCode和JetBrains环境中使用Codestral,现在使他们能够使用Codestrall生成代码并与之聊天。
在这里 是如何使用Continue.dev VSCode插件进行代码生成、交互式对话和使用Codestral进行内联编辑,以及 在这里 是用户如何使用Tabnine VSCode插件与Codestral聊天。
有关各种集成如何与Codestral协同工作的详细信息,请查看 我们的文档 有关设置说明和示例。
“这种速度和质量相结合的公共自动完成模型以前是不存在的,这将是各地开发人员的一个阶段性转变。”
–Nate Sesti,Continue.dev的首席技术官兼联合创始人
“我们对MIUI推出的功能感到兴奋,并希望看到对代码和开发援助的强烈关注,这是JetBrains非常关心的领域。”
–Vladislav Tankov,JetBrains AI负责人
“我们使用Codestral对Kotlin HumanEval基准进行了测试,并对结果印象深刻。例如,在T=0.2的通过率下,Codestral的得分为73.75,超过了GPT-4-Turbo的72.05和GPT-3.5-Turbo的54.66。”
–米哈伊尔·埃夫蒂基耶夫,JetBrains研究员
“作为创建了第一个以开发人员为中心的GenAI工具的公司的研究员,我很高兴将Mistal的新代码模型集成到我们的聊天产品中。它的性能给我留下了深刻的印象。尽管它的尺寸相对紧凑,但它提供的结果与我们为客户提供的更大的模型相当。我们测试了几个关键功能,包括代码生成、测试生成、文档、入职流程等。在每种情况下,该模型都超出了我们的预期。与之前的MIUI模型相比,该模型的速度和准确性将显著影响我们的产品效率,使我们能够为用户提供快速准确的帮助。在我们支持的模型中,该模型是一个强大的工具。,我强烈推荐给其他寻求高质量性能的人。”
–Meital Zilberstein,研发主管@Tabnine
“Cody加快了软件开发的内部循环,开发人员使用自动补全等功能来减轻编写代码带来的一些日常麻烦。我们的内部评估表明,MIUI的新Codestral模型显著降低了Cody自动补全的延迟,同时保持了建议代码的质量。这使其成为自动补全的绝佳模型选择,毫秒的延迟为开发人员带来了真正的价值。”
– Quinn Slack,Sourcegraph首席执行官兼联合创始人
“MIUI用于AI代码生成的新Codestral模型给我留下了非常深刻的印象。到目前为止,在我的测试中,它一直能生成高度准确和功能强大的代码,即使是复杂的任务。例如,当我要求它完成一个非平凡的函数来创建一个新的LlamaIdex查询引擎时,它生成了无缝工作的代码,尽管它基于旧的代码库。”
——刘,LlamaIndex首席执行官兼联合创始人
“代码生成是最受欢迎的LLM用例之一,因此我们对Codestral版本感到非常兴奋。从我们最初的测试来看,它是代码生成工作流的一个很好的选择,因为它速度快,有良好的上下文窗口,并且指令版本支持工具使用。我们使用LangGraph测试了使用指令Codestral工具进行输出的自校正代码生成,它开箱即用,效果很好(请参阅我们的 视频详细介绍了这一点).”
–Harrison Chase,LangChain首席执行官兼联合创始人