llamacpp

Inference of Meta's LLaMA model (and others) in pure C/C++

The llama.cpp library provides a C++ interface for running inference with large language models (LLMs). Initially designed to support Meta's LLaMA model, it has since been extended to work with a variety of other models. This package includes the llama-cli tool to run inference using the library.

Nėra oficialių „openSUSE Leap 16.0“ paketų

Platinamieji paketai

openSUSE Tumbleweed

openSUSE Slowroll

openSUSE Leap 16.0

openSUSE Leap 15.6

openSUSE Factory RISCV

SLFO 1.2

Fedora Rawhide (unstable)

Fedora 43

Fedora 42

Fedora 41

Mageia Cauldron (unstable)

Mageia 9

Nepalaikomos platinamųjų paketų versijos

Šie platinamieji paketai nėra oficialiai palaikomi. Už šių paketų naudojimą atsakomybę turėtumėte prisiimti patys.