简介
ChatGPT Java版SDK开源地址:https://github.com/Grt1228/chatgpt-java ,目前收获将近1000个star。
有bug欢迎朋友们指出,互相学习,所有咨询全部免费。
最新版:1.0.10
com.unfbx chatgpt-java 1.0.10
整合web示例,支持流式返回:
开发思路可以参考:https://github.com/Grt1228/chatgpt-steam-output
流式输出实现方式 | 小程序 | 安卓 | ios | H5 |
---|---|---|---|---|
SSE参考:OpenAISSEEventSourceListener | 不支持 | 支持 | 支持 | 支持 |
WebSocket参考:OpenAIWebSocketEventSourceListener | 支持 | 支持 | 支持 | 支持 |
更新日志
最新版支持tokens计算tokens计算说明
openai 的tokens计算规则适合模型先关的,不同的模型计算方法是不一样的。大致的表格如下:
关于流式返回
流式返回的数据,返回行数-2=返回tokens
[DONE]这一行不参与tokens计算,没有content属性的不参与token计算。
所以tokens数量是4,[“Ser”,”end”,”ip”,”ity”],总返回行数6 – 无效行数2 = 4个tokens
[OkHttp 省略 INFO com.unfbx.chatgpt.*****istener - OpenAI建立sse连接...[OkHttp 省略 INFO com.unfbx.chatgpt.*****istener - OpenAI返回数据:{"choices":[{"delta":{"role":"assistant"},"index":0,"finish_reason":null}]}[OkHttp 省略 INFO com.unfbx.chatgpt.*****istener - OpenAI返回数据:{"choices":[{"delta":{"content":"Ser"},"index":0,"finish_reason":null}]}[OkHttp 省略 INFO com.unfbx.chatgpt.*****istener - OpenAI返回数据:{"choices":[{"delta":{"content":"end"},"index":0,"finish_reason":null}]}[OkHttp 省略 INFO com.unfbx.chatgpt.*****istener - OpenAI返回数据:{"choices":[{"delta":{"content":"ip"},"index":0,"finish_reason":null}]}[OkHttp 省略 INFO com.unfbx.chatgpt.*****istener - OpenAI返回数据:{"choices":[{"delta":{"content":"ity"},"index":0,"finish_reason":null}]}[OkHttp 省略 INFO com.unfbx.chatgpt.*****istener - OpenAI返回数据:{"choices":[{"delta":{},"index":0,"finish_reason":"stop"}]}[OkHttp 省略 INFO com.unfbx.chatgpt.*****istener - OpenAI返回数据:[DONE][OkHttp 省略 INFO com.unfbx.chatgpt.*****istener - OpenAI返回数据结束了[OkHttp 省略 INFO com.unfbx.chatgpt.*****istener - OpenAI关闭sse连接...
tokens计算使用示例
完整使用示例请参考:TikTokensTest
结合chat模型使用示例:
完整示例参考:OpenAiClientTest
public void chatTokensTest() { //聊天模型:gpt-3.5 List messages = new ArrayList(2); messages.add(Message.builder().role(Message.Role.USER).content("关注微信公众号:程序员的黑洞。").build()); messages.add(Message.builder().role(Message.Role.USER).content("获取最新版本更新通知。").build()); ChatCompletion chatCompletion = ChatCompletion.builder().messages(messages).build(); ChatCompletionResponse chatCompletionResponse = v2.chatCompletion(chatCompletion); //获取请求的tokens数量 long tokens = chatCompletion.tokens(); //这种方式也可以// long tokens = TikTokensUtil.tokens(chatCompletion.getModel(),messages); log.info("Message集合文本:【{}】", messages, tokens); log.info("本地计算的请求的tokens数{}", tokens); log.info("本地计算的返回的tokens数{}", TikTokensUtil.tokens(chatCompletion.getModel(),chatCompletionResponse.getChoices().get(0).getMessage().getContent())); log.info("---------------------------------------------------"); log.info("Open AI 官方计算的总的tokens数{}", chatCompletionResponse.getUsage().getTotalTokens()); log.info("Open AI 官方计算的请求的tokens数{}", chatCompletionResponse.getUsage().getPromptTokens()); log.info("Open AI 官方计算的返回的tokens数{}", chatCompletionResponse.getUsage().getCompletionTokens()); }
单独使用示例:
public class TikTokensTest { String text; List messages; @Before public void prepareData() { text = "关注微信公众号:程序员的黑洞。进入chatgpt-java交流群获取最新版本更新通知。"; messages = new ArrayList(2); messages.add(Message.builder().role(Message.Role.USER).content("关注微信公众号:程序员的黑洞。").build()); messages.add(Message.builder().role(Message.Role.USER).content("进入chatgpt-java交流群获取最新版本更新通知。").build()); } /** * gpt-3.5和gpt4.0聊天模型接口计算推荐这种方法 */ @Test public void chatCompletionTokensTest() { ChatCompletion completion = ChatCompletion.builder().messages(messages).build(); long tokens = completion.tokens(); log.info("Message集合文本:【{}】", messages, tokens); log.info("总tokens数{}", tokens); } /** * Completion 接口计算推荐使用这种方法 */ @Test public void completionTokensTest() { Completion completion = Completion.builder().prompt(text).build(); long tokens = completion.tokens(); log.info("单句文本:【{}】", text); log.info("总tokens数{}", tokens); } /** * 通过模型模型名称计算 */ @Test public void byModelNameTest() { String modelName = ChatCompletion.Model.GPT_4.getName();// String modelName = ChatCompletion.Model.GPT_3_5_TURBO.getName(); List encode = TikTokensUtil.encode(modelName, text); log.info(encode.toString()); long tokens = TikTokensUtil.tokens(modelName, text); log.info("单句文本:【{}】", text); log.info("总tokens数{}", tokens); log.info("--------------------------------------------------------------"); tokens = TikTokensUtil.tokens(modelName, messages); log.info("Message集合文本:【{}】", messages, tokens); log.info("总tokens数{}", tokens); } /** * 通过Encoding计算 */ @Test public void byEncodingTest() { EncodingRegistry registry = Encodings.newDefaultEncodingRegistry(); Encoding enc = registry.getEncoding(EncodingType.P50K_BASE); List encode = TikTokensUtil.encode(enc, text); log.info(encode.toString()); long tokens = TikTokensUtil.tokens(enc, text); log.info("单句文本:【{}】", text); log.info("总tokens数{}", tokens); } /** * 通过EncodingType计算 */ @Test public void byEncodingTypeTest() { List encode = TikTokensUtil.encode(EncodingType.CL100K_BASE, text); log.info(encode.toString()); long tokens = TikTokensUtil.tokens(EncodingType.CL100K_BASE, text); log.info("单句文本:【{}】", text); log.info("总tokens数{}", tokens); }}
站在巨人的肩膀
感谢大佬:knuddelsgmbh 的jtokkit 的开源计算算法。