BLOOM, owoc współpracy kilkuset badaczy z całego świata, ujrzał światło dzienne już w lipcu ale teraz ukazała się powiązana z nim publikacja. BLOOM został wytrenowany po części dzięki wsparciu rządu francuskiego. Trening zajął trzy i pół miesiąca i pochłonął 1,082,990 komputero-godzin. Użyto 48 nodów z 8 GPU NVIDIA A100 80GB. W przedsięwzięciu wzięło udział ponad 1200 osób.
Publikacja zespołu: https://arxiv.org/abs/2211.05100
Informacje na temat modelu przekazanę przez francuską firmę koordynującą projekt: https://bigscience.huggingface.co/blog/bloom
Link do pobrania modelu: https://huggingface.co/bigscience/bloom
Pomimo iż model nie należy do najbardziej zaawansowanych, nowością jest sposób jego powstani i dostępność. Sam fakt iż powstał w ramach tak masywnej współpracy i jest powszechnie dostępny udowadniają że modele o takiej skali możliwe są do stworzenia poza środowiskiem komercyjnym i mogą stać się podstawą do kolejnych ulepszonych iteracji.