...
Текущую статистику использования GPU можно получить при помощи REST API.
REST-запрос должен быть HTTP/HTTPS POST запросом в таком виде:
- HTTP: http://streaming.flashphoner.com:8081/rest-api/gpu/info
- HTTPS: https://streaming.flashphoner.com:8444/rest-api/gpu/info
Здесь:
- streaming.flashphoner.com - адрес WCS-сервера
- 8081 - стандартный REST / HTTP порт WCS-сервера
- 8444 - стандартный HTTPS порт
- rest-api - обязательный префикс
- /gpu/info - используемый REST-вызов
REST методы и статусы ответа
...
Code Block | ||||
---|---|---|---|---|
| ||||
HTTP/1.1 200 OK Access-Control-Allow-Origin: * Content-Type: application/json { "cudaVersion": "12.4", "nvencVersion": "12.2", "driverVersion": "550.90.07", "nvmlVersion": "12.550.90.07", "numOfAvailableDevices": 1, "numOfDecodingSessions": 1, "numOfEncodingSessions": 5, "numOfHostEncodingSessions": 5, "deviceList": [ { "name": "Tesla P100-PCIE-16GB", "pciBusId": "0000:02:00.0", "computeCapability": "6.0", "computeMode": 0, "computeModeDescription": "Default compute mode (Multiple contexts allowed per device)", "numOfDecodingSessions": 1, "numOfEncodingSessions": 5, "numOfHostEncodingSessions": 5, "fpsStats": { "decoderFps": 30, "encoderFps": 30, "decoderFps2": 29, "encoderFps2": 29 }, "nativeEncoderStats": { "averageFps": 29, "averageLatency": 1225 }, "utilizationState": { "computeUtilization": 1, "memUtilization": 0, "decoderUtilization": 5, "encoderUtilization": 4, "totalMem": "16 GB", "freeMem": "15.26 GB", "usedMem": "752.25 MB", "usedPciBandwidth": "1.14 MB", "usedPciBandwidth2": "984.76 KB" }, "supportedEncodeCodecs": { "H265": { "minWidth": 65, "minHeight": 33, "maxWidth": 4096, "maxHeight": 4096 }, "H264": { "minWidth": 33, "minHeight": 17, "maxWidth": 4096, "maxHeight": 4096 } }, "supportedDecodeCodecs": { "H265": { "minWidth": 144, "minHeight": 144, "maxWidth": 4096, "maxHeight": 4096 }, "H264": { "minWidth": 48, "minHeight": 16, "maxWidth": 4096, "maxHeight": 4096 } } } ] } |
Return codes
Code | Reason |
---|---|
200 | OK |
500 | Internal server error |
Параметры
Параметр | Описание | Пример |
---|
"mediaSession": {"frequency":100, "ids":["12345678-0000-1111"]}
cudaVersion | Версия CUDA | 12.4 |
nvencVersion | Версия NVENC | 12.2 |
driverVersion | Версия драйверов NVIDIA | 550.90.07 |
nvmlVersion | Версия NVIDIA management library | 12.550.90.07 |
numOfAvailableDevices | Количество доступных GPU | 1 |
numOfDecodingSessions | Количество декодеров | 1 |
numOfEncodingSessions | Количество кодировщиков | 5 |
numOfHostEncodingSessions | Количество кодировщиков на сервер | 5 |
name | Имя GPU | Tesla P100-PCIE-16GB |
pciBusId | Идентификатор GPU на PCI шине | 0000:02:00.0 |
computeCapability | Идентификатор возможностей GPU | 6.0 |
computeMode | Режим вычислений GPU | 0 |
computeModeDescription | Описание режима вычислений | Default compute mode (Multiple contexts allowed per device) |
decoderFps | FPS декодирования | 30 |
encoderFps | FPS кодирования | 30 |
averageFps | Средний FPS по данным GPU | 29 |
averageLatency | Средняя задержка по данным GPU в микросекундах | 1225 |
computeUtilization | Процент использования GPU | 1 |
memUtilization | Процент использования памяти | 0 |
decoderUtilization | Процент загрузки декодирования | 5 |
encoderUtilization | Процент загрузки кодирования | 4 |
totalMem | Общее количество памяти | 16 GB |
freeMem | Количество свободной памяти | 15.26 GB |
usedMem | Количество ивпользуемой памяти | 752.25 MB |
usedPciBandwidth | Использование пропускной способности шины PCI | 984.76 KB |
minWidth | Минимальная ширина картинки для декодирования/кодирования | 33 |
minHeight | Минимальная высота картинки для декодирования/кодирования | 17 |
maxWidth | Максимальная ширина картинки для декодирования/кодирования | 4096 |
maxHeight | Максимальная высота картинки для декодирования/кодирования | 4096 |