Trafiłem na artykuł Matthiasa Bastiana w THE DECODER o wycieku danych z Anthropic, który ujawnił szczegóły niewydanego modelu — podobno ich najbardziej zaawansowanego. Oto co zwróciło moją uwagę i dlaczego uważam, że to ważne poza samymi nagłówkami.
Sam wyciek jest historią
Wyciek danych ujawniający niewydany model AI to rzecz nietypowa. Jesteśmy przyzwyczajeni do starannie zaaranżowanych premier — posty na blogach, benchmarki, wersje preview API. Ale wycieki takie jak ten dają nam rzadki, niefiltrowany wgląd w to, co firma faktycznie buduje, w przeciwieństwie do tego, co chce sprzedawać. Fakt, że Anthropic potwierdził istnienie modelu i że jest już testowany z wybranymi klientami, mówi mi, że to nie był vaporware — to prawdziwy produkt, który został ogłoszony na czyimś harmonogramie.
Po 30 latach w tej branży widziałem wystarczająco dużo „wycieków" roadmap, które tak naprawdę były marketingiem. To nie wygląda na coś takiego. Firmy nie potwierdzają wycieków produktów, co do których nie są pewne.
Zdolności cybernetyczne jako wyróżnik
Najbardziej rzuca się w oczy nacisk na zdolności w zakresie cyberbezpieczeństwa. Nie tylko kodowanie, nie tylko rozumowanie — cyberbezpieczeństwo. To świadomy wybór pozycjonowania. Sygnalizuje, że Anthropic widzi rynek w pracy nad bezpieczeństwem wspomaganym przez AI: testy penetracyjne, analiza podatności, modelowanie zagrożeń.
Dla tych z nas, którzy budują aplikacje, to miecz obosieczny. Modele AI, które doskonale znajdują podatności, mogą być używane defensywnie — ale te same zdolności w złych rękach to koszmar. Wzmianka Anthropica o „celowo stopniowym wdrożeniu", ponieważ model przewyższa wszystko inne w zdolnościach cyber, jest wymowna. Wiedzą, co zbudowali, i ostrożnie wybierają, kto dostanie to pierwszy.
Problem kosztów, o którym nikt nie mówi
Wyciekłe dokumenty opisują model jako „bardzo wymagający obliczeniowo" i „bardzo drogi." To jest ta część, którą większość ludzi przeoczy, ale to najważniejszy szczegół dla każdego, kto faktycznie wdraża AI na produkcji.
Wchodzimy w fazę, w której najbardziej zaawansowane modele mogą być ekonomicznie niepraktyczne dla większości przypadków użycia. Przepaść między „state of the art" a „tym, co faktycznie stać cię, żeby uruchomić" się poszerza. Jeśli jesteś przedsiębiorstwem planującym strategię AI, to ma ogromne znaczenie. Model, który wygrywa benchmarki, to niekoniecznie model, który wygra zatwierdzenie twojego budżetu.
Widziałem ten wzorzec wcześniej w oprogramowaniu enterprise — najlepsze narzędzie jest bezużyteczne, jeśli nie możesz go uruchomić na dużą skalę. Mądre zespoły skupią się na uzyskaniu 90% możliwości za 10% kosztów, zamiast gonić absolutną granicę.
Mój wniosek
Wyciek wyciekiem — ale to, co nam to naprawdę mówi, to że następna generacja modeli AI wymusi trudniejsze kompromisy między możliwościami a kosztami. Era „po prostu użyj najlepszego modelu" dobiega końca. Wygranymi będą zespoły, które wiedzą, kiedy użyć drogiego modelu, a kiedy lżejsza alternatywa wystarczy.
Jeśli „Mythos" — albo jakkolwiek go ostatecznie nazwą — jest tak zaawansowany, jak sugerują wyciekłe dokumenty, nie zastąpi modeli, których już używamy. Doda kolejną warstwę do drzewa decyzyjnego. I właśnie tam zaczyna się prawdziwe wyzwanie inżynieryjne.