Переглянути джерело

feat: disable token counting in large language models for performance testing

Signed-off-by: -LAN- <laipz8200@outlook.com>
tags/0.15.6-alpha.1
-LAN- 7 місяці тому
джерело
коміт
94c08462a1
Аккаунт користувача з таким Email не знайдено

+ 2
- 2
api/core/model_runtime/model_providers/__base/large_language_model.py Переглянути файл

@@ -537,7 +537,6 @@ if you are not sure about the structure.
"""
raise NotImplementedError

@abstractmethod
def get_num_tokens(
self,
model: str,
@@ -554,7 +553,8 @@ if you are not sure about the structure.
:param tools: tools for tool calling
:return:
"""
raise NotImplementedError
# Disable the token count in LLMs for profermance testing.
return 0

def enforce_stop_tokens(self, text: str, stop: list[str]) -> str:
"""Cut off the text as soon as any stop words occur."""

+ 1
- 2
api/core/model_runtime/model_providers/__base/tokenizers/gpt2_tokenzier.py Переглянути файл

@@ -25,8 +25,7 @@ class GPT2Tokenizer:
# future = _executor.submit(GPT2Tokenizer._get_num_tokens_by_gpt2, text)
# result = future.result()
# return cast(int, result)
# return GPT2Tokenizer._get_num_tokens_by_gpt2(text)
return 0
return GPT2Tokenizer._get_num_tokens_by_gpt2(text)

@staticmethod
def get_encoder() -> Any:

Завантаження…
Відмінити
Зберегти