Просмотр исходного кода

Double check error of adding llm. (#5237)

### What problem does this PR solve?

#5227

### Type of change

- [x] Bug Fix (non-breaking change which fixes an issue)
tags/v0.17.0
Kevin Hu 8 месяцев назад
Родитель
Сommit
ef8847eda7
Аккаунт пользователя с таким Email не найден
1 измененных файлов: 1 добавлений и 1 удалений
  1. 1
    1
      api/apps/llm_app.py

+ 1
- 1
api/apps/llm_app.py Просмотреть файл

@@ -230,7 +230,7 @@ def add_llm():
try:
m, tc = mdl.chat(None, [{"role": "user", "content": "Hello! How are you doing!"}], {
"temperature": 0.9})
if not tc:
if not tc and m.find("**ERROR**:") >= 0:
raise Exception(m)
except Exception as e:
msg += f"\nFail to access model({mdl_nm})." + str(

Загрузка…
Отмена
Сохранить