本文最后更新于:2024年11月13日 下午
前言 对接ChatGPT3.5/4的API实现打字机效果
在本文中,我们将探讨如何使用 OpenAI 的 GPT-3.5 模型实现打字机效果,即用户输入一条消息后,模型逐步返回一个完整的对话文本。我们将介绍一个 Node.js 服务器和一个 HTML 页面的示例代码,这两个组件通过 HTTP 请求和 SSE(Server-Sent Events)协议连接,并实现了基于流式 API 的长时间运行的聊天功能。
对接ChatGPT3.5/4接口本身很简单,但是实现stream
以打字机效果展示并且实现自动长回复,不少小伙伴遇到问题,特整理了一份3.5接口开放当天用于临时验证的示例代码供学习参考(千万不要用于生产环境):
node.js代码:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 import dotenv from 'dotenv' import http from 'node:http' import { Readable } from 'node:stream' import url from 'node:url' import { Configuration , OpenAIApi } from "openai" dotenv.config ()const configuration = new Configuration ({ organization : process.env .OPENAI_API_ORGANIZATION , apiKey : process.env .OPENAI_API_KEY , })const openai = new OpenAIApi (configuration)const server = http.createServer ((req, res ) => { const { pathname } = url.parse (req.url || '/' ) if (req.method === 'OPTIONS' ) { res.setHeader ('Access-Control-Allow-Origin' , '*' ) res.setHeader ('Access-Control-Allow-Methods' , 'POST, OPTIONS' ) res.setHeader ('Access-Control-Allow-Headers' , 'Content-Type' ) res.end () } else if (req.method === 'POST' && pathname === '/chatgpt' ) { let body = '' req.on ('data' , (chunk ) => { body += chunk }) req.on ('end' , async () => { const { messages } = JSON .parse (body) res.setHeader ('Access-Control-Allow-Origin' , '*' ) res.setHeader ("Content-Type" , "text/event-stream; charset=utf-8" ) res.setHeader ("Cache-Control" , "no-cache" ) res.setHeader ("Connection" , "keep-alive" ) const streamResponse = await openai.createChatCompletion ({ model : "gpt-3.5-turbo" , stream : true , messages : messages }, { responseType : 'stream' }) const stream = streamResponse.data as any as Readable stream.on ('data' , chunk => { res.write (chunk) }) stream.on ('end' , () => { res.end () }) }) } else { res.statusCode = 404 res.end () } }) server.listen (65532 , '0.0.0.0' , () => { console .log ('Server listening on port 65532' ) })
这段 Node.js 代码实现了一个 HTTP 服务器,接受 POST 请求并将请求体中的消息发送给 OpenAI 的 GPT-3.5 模型进行对话,返回模型对消息的回复。具体实现细节包括:
解析环境变量以获取 OpenAI API 凭证;
解析请求 URL 并根据请求方法和路径分别处理 OPTIONS 和 /chatgpt 请求;
处理 POST 请求时,将请求体解析为 JSON 并提取出消息内容;
使用 OpenAI 客户端库创建一个长时间运行的流式 API 请求,并将其响应头设置为 SSE 格式;
将请求的响应转换为可读流并将其写入到 HTTP 响应中返回给客户端。
需要注意的是,这段代码中的 dotenv
库用于从 .env
文件中加载环境变量,因此需要确保该文件位于正确的位置且包含正确的变量名和值。同时,该代码假定 OpenAI 的 GPT-3.5/GPT-4 模型已经创建并部署,并且已经获得了相应的 API 凭证。
前端代码:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 <!DOCTYPE html > <html > <head > <meta charset ="UTF-8" > <title > ChatGPT Streaming Demo</title > <script src ="https://cdn.jsdelivr.net/npm/marked/marked.min.js" > </script > <script type ="module" > window .onload = async () => { const url = "http://127.0.0.1:65532/chatgpt" ; const jsonBody = { messages : [ { role : 'user' , content : 'Hello' } ] }; const outputDiv = document .getElementById ("output" ); let result = "" ; const answer = async (isContinue ) => { const res = await fetch (url, { method : "POST" , body : JSON .stringify (jsonBody), headers : { "Content-Type" : "application/json" } }) const reader = res.body .getReader (); const decoder = new TextDecoder ("utf-8" ); let render = 0 const readChunk = async ( ) => { return reader.read ().then (({ value, done } ) => { if (!done) { const dataString = decoder.decode (value); console .log (dataString) dataString.toString ().trim ().split ("data: " ).forEach (async (line) => { if (line != '' ) { const text = line.replace ("data: " , "" ) try { const data = JSON .parse (text) console .log (data.choices [0 ]) if (data.choices [0 ].delta .content ) { result += data.choices [0 ].delta .content if (render++ > 5 ) { outputDiv.innerHTML += data.choices [0 ].delta .content render = 0 } else { outputDiv.innerHTML = marked.parse (result + data.choices [0 ].delta .content ) } } if (data.choices [0 ].finish_reason === 'length' ) { await answer (true ) } else if (data.choices [0 ].finish_reason === 'stop' ) { outputDiv.innerHTML = marked.parse (result); jsonBody.result = result return } return readChunk (); } catch (error) { console .log (text) if (text.trim () === '[DONE]' ) { outputDiv.innerHTML = marked.parse (result); jsonBody.result = result return } } } }) } else { console .log ("done" ); } }); }; await readChunk (); } await answer () } </script > </head > <body > <div id ="output" > </div > </body > </html >
这段前端代码实现了一个 HTML 页面,其中包含一个 div
元素用于显示与 ChatGPT3.5/4 模型的对话(EventSource API来实现SSE的接收和处理)。具体实现细节包括:
引入了 marked.js
库,用于将 Markdown 格式文本转换为 HTML 格式;
在页面加载后,通过 HTTP POST 请求向 Node.js 服务器发送一个包含用户第一条消息内容的 JSON 对象,并将 HTTP 响应的流数据解析为字符串并逐行处理;
在每次从流中读取到的新数据中,将 JSON 字符串解析为对象后提取出模型生成的回复文本,并使用 marked.js
将其转换为 HTML 文本;
将转换后的 HTML 文本添加到 div
元素中以在页面上显示出来;
当模型返回的 finish_reason
字段为 "stop"
时,停止递归调用 answer()
函数并将最终生成的所有文本存储在 JSON 对象 result
字段中。
需要注意的是,该代码假定 Node.js 服务器已经启动并正确响应 /chatgpt
路径的请求,并且浏览器能够正常访问该服务器。同时,在实际使用中需要替换 url
变量为实际的服务器地址。以上代码没有考虑中止请求的情况 ,如需中止请求并展示新内容,可参考《Vue3对接ChatGPT4接口 》。
以上示例代码支持长回复(if (data.choices[0].finish_reason === 'length')
则持续请求API直到所有内容输出完成),关于chatgpt-api
如何支持长回复:https://github.com/transitive-bullshit/chatgpt-api/pull/459 。
关于对接Stream方式的API,我看到一些开源项目或多或少存在问题,因精力有限无法一一分析也无力去一一修复开源项目的bug。大家遇到时参考我给的示例代码修改就好。
Q: 前端没有打字机效果?
A: 一种可能原因是经过 Nginx 反向代理,开启了 buffer,则 Nginx 会尝试从后端缓冲一定大小的数据再发送给浏览器。请尝试在反代参数后添加 proxy_buffering off;
,然后重载 Nginx。其他 web server 配置同理。