llamacpp
Inference of Meta's LLaMA model (and others) in pure C/C++
The llama.cpp library provides a C++ interface for running inference with large language models (LLMs). Initially designed to support Meta's LLaMA model, it has since been extended to work with a variety of other models. This package includes the llama-cli tool to run inference using the library.
Δεν υπάρχει επίσημο διαθέσιμο πακέτο για openSUSE Leap 16.0Διανομές
openSUSE Tumbleweed
openSUSE Slowroll
openSUSE Leap 16.0
openSUSE Leap 15.6
openSUSE Factory RISCV
SLFO 1.2
Fedora Rawhide (unstable)
Fedora 43
Fedora 42
Fedora 41
Mageia Cauldron (unstable)
Mageia 9
Μη υποστηριζόμενες διανομές
Οι παρακάτω διανομές δεν υποστηρίζονται επίσημα. Χρησιμοποιήστε αυτά τα πακέτα με δικιά σας ευθύνη.