| - google/gemma-7b | - google/gemma-7b | ||||
| - google/codegemma-7b | |||||
| - meta/llama2-70b | - meta/llama2-70b | ||||
| - mistralai/mixtral-8x7b-instruct-v0.1 | - mistralai/mixtral-8x7b-instruct-v0.1 | ||||
| - fuyu-8b | - fuyu-8b |
| model: google/codegemma-7b | |||||
| label: | |||||
| zh_Hans: google/codegemma-7b | |||||
| en_US: google/codegemma-7b | |||||
| model_type: llm | |||||
| features: | |||||
| - agent-thought | |||||
| model_properties: | |||||
| mode: chat | |||||
| context_size: 8192 | |||||
| parameter_rules: | |||||
| - name: temperature | |||||
| use_template: temperature | |||||
| - name: top_p | |||||
| use_template: top_p | |||||
| - name: max_tokens | |||||
| use_template: max_tokens | |||||
| default: 1024 | |||||
| min: 1 | |||||
| max: 1024 | |||||
| - name: frequency_penalty | |||||
| use_template: frequency_penalty | |||||
| min: -2 | |||||
| max: 2 | |||||
| default: 0 | |||||
| - name: presence_penalty | |||||
| use_template: presence_penalty | |||||
| min: -2 | |||||
| max: 2 | |||||
| default: 0 |
| 'fuyu-8b': 'vlm/adept/fuyu-8b', | 'fuyu-8b': 'vlm/adept/fuyu-8b', | ||||
| 'mistralai/mixtral-8x7b-instruct-v0.1': '', | 'mistralai/mixtral-8x7b-instruct-v0.1': '', | ||||
| 'google/gemma-7b': '', | 'google/gemma-7b': '', | ||||
| 'google/codegemma-7b': '', | |||||
| 'meta/llama2-70b': '' | 'meta/llama2-70b': '' | ||||
| } | } | ||||