We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
There was an error while loading. Please reload this page.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
问题类型 (Issue Type):
这个功能的相关问题 目前,用户与 AI 交互时,无法直接看到当前是哪个具体模型提供了回答,也无法了解该次交互的资源消耗情况(例如处理时间、消耗的 tokens 数量)。这使得:
解决方案。 希望在每次 AI 回答的旁边或上方/下方,增加一小块区域,用于显示本次交互的相关元数据。参考下图示例(来自另一个 AI 服务):
[在这里可以简单描述一下你截图里的内容,例如:截图显示了一个名为 'gemini-2.0-flash' 的模型,处理时间 'ct: 4.8s',以及可能的 token 数量 '6909, 606'。]
gemini-pro
gpt-4-turbo
claude-3-opus
ct: 4.8s
Tokens: 150 input / 850 output
6909, 606
The text was updated successfully, but these errors were encountered:
No branches or pull requests
问题类型 (Issue Type):
这个功能的相关问题
目前,用户与 AI 交互时,无法直接看到当前是哪个具体模型提供了回答,也无法了解该次交互的资源消耗情况(例如处理时间、消耗的 tokens 数量)。这使得:
解决方案。
希望在每次 AI 回答的旁边或上方/下方,增加一小块区域,用于显示本次交互的相关元数据。参考下图示例(来自另一个 AI 服务):
[在这里可以简单描述一下你截图里的内容,例如:截图显示了一个名为 'gemini-2.0-flash' 的模型,处理时间 'ct: 4.8s',以及可能的 token 数量 '6909, 606'。]
gemini-pro
,gpt-4-turbo
,claude-3-opus
或内部模型标识符。ct: 4.8s
。Tokens: 150 input / 850 output
或类似6909, 606
的格式(如果这是项目内部的表示方式)。这些信息可以以一种不显眼但清晰的方式集成到用户界面中,例如使用较小的字体或特定的背景色块。
The text was updated successfully, but these errors were encountered: