Passer au contenu principal
Notre API est compatible avec le SDK Python d’OpenAI pour certains endpoints spécifiques, vous permettant d’intégrer notre service avec un minimum de modifications de code pour vos tests.

Installation

Installez le SDK Python d’OpenAI :
pip install openai

Configuration

Configurez le client pour pointer vers notre API :
from openai import OpenAI
client = OpenAI(
    api_key="votre-clé-api-paradigm",
    base_url="https://paradigm.lighton.ai/api/v2"
)

Endpoints compatibles

Chat Completions

Créez des completions de chat en utilisant la même interface que l’API d’OpenAI.
response = client.chat.completions.create(
    model="nom-de-votre-modèle",
    messages=[
        {"role": "system", "content": "Vous êtes un assistant utile."},
        {"role": "user", "content": "Bonjour !"}
    ],
    temperature=0.7,
    max_tokens=150
)

print(response.choices[0].message.content)

Réponse en streaming

Diffusez les réponses en temps réel :
stream = client.chat.completions.create(
    model="nom-de-votre-modèle",
    messages=[{"role": "user", "content": "Raconte-moi une histoire"}],
    stream=True
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="")

Completions

Générez des completions de texte en utilisant l’endpoint historique de completions.
response = client.completions.create(
    model="nom-de-votre-modèle",
    prompt="Il était une fois",
    max_tokens=100,
    temperature=0.7
)

print(response.choices[0].text)

Réponse en streaming

stream = client.completions.create(
    model="nom-de-votre-modèle",
    prompt="Écris un poème sur",
    stream=True
)

for chunk in stream:
    if chunk.choices[0].text:
        print(chunk.choices[0].text, end="")

Embeddings

Générez des embeddings pour du texte :
response = client.embeddings.create(
    model="votre-modèle-embedding",
    input="Texte à vectoriser"
)

embedding = response.data[0].embedding
print(embedding)

Liste des modèles

Récupérez la liste des modèles disponibles pour l’utilisateur.
models = client.models.list()

for model in models.data:
    print(f"{model.name}: {model.technical_name=} / {model.model_type}")

Téléverser des fichiers

Téléversez des fichiers pour les utiliser avec des assistants ou d’autres endpoints.
# Téléverser un fichier
with open("document.pdf", "rb") as file:
    response = client.files.create(
        file=file,
        purpose="assistants"
    )

file_id = response.id
print(f"Fichier téléversé : {file_id}")
Paramètres supportés :
  • file (requis) - Objet fichier à téléverser

Lister les fichiers

Récupérez la liste de tous les fichiers téléversés.
# Lister tous les fichiers
files = client.files.list()

for file in files.data:
    print(f"{file.id}: {file.filename} ({file.bytes} octets)")

Récupérer un fichier

Obtenez des informations sur un fichier spécifique.
# Obtenir les détails du fichier
file = client.files.retrieve(file_id="file-abc123")

print(f"Nom du fichier : {file.filename}")
print(f"Taille : {file.bytes} octets")
print(f"Créé le : {file.created_at}")

Supprimer un fichier

Supprimez un fichier de votre compte.
# Supprimer un fichier
response = client.files.delete("file-abc123")

if response.deleted:
    print("Fichier supprimé avec succès")

Différences par rapport à OpenAI

Bien que notre API maintienne la compatibilité avec le SDK OpenAI, notez les différences suivantes :
Différences importantes :
  • Les noms de modèles sont spécifiques à notre plateforme
  • Certains paramètres avancés peuvent ne pas être supportés
  • Les limites de débit diffèrent de celles d’OpenAI

Gestion des erreurs

Gérez les erreurs en utilisant des blocs try-except standards :
from openai import OpenAIError
try:
    response = client.chat.completions.create(
        model="nom-de-votre-modèle",
        messages=[{"role": "user", "content": "Bonjour"}]
    )
except OpenAIError as e:
    print(f"Erreur : {e}")

Guide de migration

Pour migrer d’OpenAI vers notre API :
  1. Mettez à jour le paramètre base_url dans la configuration de votre client
  2. Remplacez les noms de modèles OpenAI par nos identifiants de modèles
  3. Mettez à jour votre clé API pour utiliser la clé de notre plateforme
  4. Testez votre implémentation avec nos endpoints
# Avant (OpenAI)
client = OpenAI(api_key="sk-...")
# Après (LightOn API)
client = OpenAI(
    api_key="votre-clé-api-paradigm",
    base_url="https://paradigm.lighton.ai/api/v2"
)