|
|
|
|
@ -8,6 +8,7 @@
|
|
|
|
|
# Из каталога репозитория: ./podman-llama.sh
|
|
|
|
|
# Переменные — как в compose / .env: PORT, MODEL_FILE, CPU_MOE, N_CPU_MOE, CTX_SIZE,
|
|
|
|
|
# CACHE_TYPE_K, CACHE_TYPE_V, THREADS; образ: IMAGE (по умолчанию server-cuda).
|
|
|
|
|
# Порт на хосте: только IPv4 (BIND_HOST по умолчанию 0.0.0.0), иначе Podman часто вешает [::].
|
|
|
|
|
|
|
|
|
|
set -euo pipefail
|
|
|
|
|
|
|
|
|
|
@ -30,6 +31,7 @@ fi
|
|
|
|
|
: "${CACHE_TYPE_V:=turbo2}"
|
|
|
|
|
: "${THREADS:=8}"
|
|
|
|
|
: "${IMAGE:=ghcr.io/ggml-org/llama.cpp:server-cuda}"
|
|
|
|
|
: "${BIND_HOST:=0.0.0.0}"
|
|
|
|
|
|
|
|
|
|
# Разбить по пробелам для podman (пусто = только CDI-устройство).
|
|
|
|
|
# Пример: PODMAN_GPU_FLAGS='--gpus all'
|
|
|
|
|
@ -38,10 +40,10 @@ read -r -a PODMAN_GPU_FLAGS_ARR <<<"${PODMAN_GPU_FLAGS:---device nvidia.com/gpu=
|
|
|
|
|
podman run -d \
|
|
|
|
|
--name llama-server \
|
|
|
|
|
--replace \
|
|
|
|
|
--restart unless-stopped \
|
|
|
|
|
--restart no \
|
|
|
|
|
--shm-size 1g \
|
|
|
|
|
--ulimit memlock=-1:-1 \
|
|
|
|
|
-p "${PORT}:8080" \
|
|
|
|
|
-p "${BIND_HOST}:${PORT}:8080" \
|
|
|
|
|
-v "${ROOT}/models:/models:ro" \
|
|
|
|
|
-e NVIDIA_VISIBLE_DEVICES=all \
|
|
|
|
|
-e "LLAMA_ARG_CPU_MOE=${CPU_MOE}" \
|
|
|
|
|
|