Je viens de tomber sur cet outil qui semble correspondre à ce que tu recherches : https://meetcody.ai. C’est un assistant que tu peux entraîner avec tes propres données.
Sinon, personnellement, je partirais sur du code Python complet avec https://python.langchain.com/ pour gérer et diviser les données sur lesquelles entraîner ChatGPT, etc. Tu n’as vraiment pas besoin d’auto-gpt ou de multi-gpt pour faire cela.
Donc en gros, Langchain te permet de faire énormément de choses avec les LLMs (Large Language Models), comme par exemple :
Optimiser les prompts envoyés à ChatGPT
Traiter de grandes quantités de données (pdf, csv, txt, json, etc.), les diviser en morceaux pour réduire la taille des prompts envoyés à ChatGPT, etc.
Créer des embeddings à partir de tes données pour faciliter la recherche à partir de requêtes
Je te laisse consulter la documentation qui est bien détaillée.