当前位置: 首页 > news >正文

网站怎么在百度搜到什么平台推广效果最好

网站怎么在百度搜到,什么平台推广效果最好,汕头seo网站优化,成品app直播源码ollamaFastAPI部署后端大模型调用接口 记录一下开源大模型的后端调用接口过程 一、ollama下载及运行 1. ollama安装 ollama是一个本地部署开源大模型的软件,可以运行llama、gemma、qwen等国内外开源大模型,也可以部署自己训练的大模型 ollama国内地…

ollama+FastAPI部署后端大模型调用接口

记录一下开源大模型的后端调用接口过程

一、ollama下载及运行

1. ollama安装

ollama是一个本地部署开源大模型的软件,可以运行llama、gemma、qwen等国内外开源大模型,也可以部署自己训练的大模型

ollama国内地址

下载安装,并运行

PixPin_2025-01-06_10-53-53

ollama图标出现在折叠的任务栏中,就算安装成功了

2. 下载并运行大模型

在ollama管理的模型中,找到自己想要部署的大模型,以qwen2.5-7B大模型为例

ollama启动状态下,终端执行如下命令:

ollama run qwen2.5

image-20250106105916762

如果是首次运行,会先下载,下载之后,就可以运行起来了

PixPin_2025-01-06_11-01-29

此时,已经可以在终端访问大模型了

二、后端接口调用

ollama运行的本地大模型端口号为11434,可以在线调用

有多种方式可以实现大模型的后端调用,只要是后端语言,都可以

因为我的后端有其他深度学习模型要调用,所以我选用的后端语言是python,调用大模型时,自然也选择了python,接口框架使用的是fastapi

后端调用程序如下:

#!/usr/bin/env python
# -*- coding:utf-8 -*-
# author:HP
# datetime:2024/11/11 8:43
from fastapi import HTTPException, APIRouter
import requests
import json
from .inputData import GenerateRequestbig_model_api = APIRouter()# 定义 Ollama API 的 URL
OLLAMA_API_URL = "http://localhost:11434/v1/completions"  # Ollama 默认运行在本地 11434 端口@big_model_api.post('/llama')
async def generate_text(request: GenerateRequest):# 设置请求头和请求数据headers = {"Content-Type": "application/json"}data = {"model": request.model,"prompt": request.prompt,"temperature": request.temperature,"max_tokens": request.max_tokens,}# 发送请求给 Ollama APIresponse = requests.post(OLLAMA_API_URL, headers=headers, data=json.dumps(data))# 检查响应状态并处理结果if response.status_code == 200:result = response.json()return {"generated_text": result.get("choices")[0].get("text")}else:raise HTTPException(status_code=response.status_code, detail=response.text)

这里使用的是分布式路由接口,在fastapi的主程序中加入这个名为big_model_api的APIRouter实例,就可以在前端访问这个接口了

当然,需要配合pydantic定义好请求数据的结构,GenerateRequest类定义如下:

# 数据模型,用于接收请求数据
class GenerateRequest(BaseModel):model: str = "qwen2.5"  # 模型名称prompt: str  # 输入的 prompttemperature: float = 0.7  # 温度参数,默认为 0.7max_tokens: int = 1000  # 最大生成的 token 数,默认为 200

解释一下:

  • 默认调用的模型是qwen2.5,如果传递其他参数,就可以调用其他模型
  • prompt也就是提示词,就是前端传给后端的问题
  • temperature不知道有啥用
  • max_token其实就是支持返回多长的字符,这个值越大,消耗的资源越大

后端服务启动后,前端正常传递对话内容,请求后端接口,就可以调用大模型进行对话了

C4B46D06-F606-4e7b-BA44-DC491515A708

image-20250106112304865

如果有自己训练的模型,也可以参考这种方式部署上线,但是ollama如何来调用,还需要单独研究

http://www.wangmingla.cn/news/97327.html

相关文章:

  • 郑州哪里做网站最好太原百度推广排名优化
  • 北塘网站制作历下区百度seo
  • 湖南郴州新网重庆seo关键词优化服务
  • 新建设网站如何推广网络营销的专业知识
  • 猎头网站模板网络公司是做什么的
  • 礼品回收网站建设平台代运营是什么意思
  • 哪个网站可以用来做读书笔记直链平台
  • 合肥网站建设怎么样天津百度快照优化公司
  • 开发公司网签过期宁波seo博客
  • 今日国内新闻摘抄十条2023河源市seo点击排名软件价格
  • 建设网站好公司哪家好南宁网站快速排名提升
  • 做企业网站收费多少哪里搜索引擎优化好
  • 如何新建一个网站seo优化软件有哪些
  • 课程网站建设内容网络推广项目
  • wordpress数据库内容长沙网站seo分析
  • 网站建设 技术方案精准客源推广引流
  • 南阳做网站的公百度一下你就知道百度官网
  • 北京南昌网站建设seo外贸网站制作
  • 代备案网站查看浏览过的历史记录百度
  • 苏州风险区域最新长沙seo搜索
  • 最优的网站建设2024年3月新冠肺炎
  • 国外做鞋子的网站seo链接优化建议
  • 用html网站登录界面怎么做最新小组排名
  • 做网站需要什么系统企业站seo价格
  • 巴中市做网站seo基础知识培训视频
  • 东京热 在线A视频网站一级做爰片百度认证官网
  • 美国各大网站优化网站seo策略
  • 保定网站优化seo优化博客
  • 滨江专业网页制作哪家好优化大师是什么意思
  • 做网站构思seo外包推广