本文主要探讨如何利用langchain4j来整合ollama和deepseek的使用方法。
步骤如下:
首先,在pom.xml文件中添加必要的依赖项:
<dependency>
<groupId>dev.langchain4j</groupId>
<artifactId>langchain4j-spring-boot-starter</artifactId>
<version>${langchain4j-spring.version}</version>
</dependency>
<dependency>
<groupId>dev.langchain4j</groupId>
<artifactId>langchain4j-ollama-spring-boot-starter</artifactId>
<version>${langchain4j-spring.version}</version>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>登录后复制接着,在application.yaml文件中配置ollama的聊天模型:
langchain4j:
ollama:
chat-model:
base-url: http://localhost:11434
model-name: deepseek-r1:8b登录后复制然后,创建一个控制器来处理聊天请求:
@RequestMapping("/ollama")
@RestController
public class ChatController {
@Autowired
ChatLanguageModel chatLanguageModel;
<pre class="brush:php;toolbar:false">/**
* curl -i localhost:8080/ollama/chat?prompt=今天日期是多少
* @param prompt
* @return
*/
@GetMapping("/chat")
public String chat(@RequestParam("prompt") String prompt) {
return chatLanguageModel.generate(prompt);
}登录后复制}
最后,验证配置是否正确,可以通过访问http://localhost:8080/ollama/chat?prompt=%E4%BD%A0%E6%98%AF%E8%B0%81来测试,结果应为您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。
总结来说,langchain4j提供了一个名为langchain4j-ollama-spring-boot-starter的工具,可以方便地通过ollama访问deepseek。

以上就是langchain4j+ollama+deepseek小试牛刀的详细内容,更多请关注楠楠科技社其它相关文章!
标签: #牛刀 #langchain4j #ollama