OpenAI bazarda ən yaxşı açıq mənbəli süni zəka modelini təqdim etməyə hədəflənib
Süni intellekt (AI) 0

OpenAI bazarda ən yaxşı açıq mənbəli süni zəka modelini təqdim etməyə hədəflənib

Mart ayının sonuna yaxın OpenAI bu il ərzində GPT-2-dən sonra ilk açıq mənbəli koda sahib böyük dil modelini təqdim etməyi planlaşdırdığını açıqlamışdı. İndi isə şirkətin süni zəka tərtibatçıları ilə keçirdiyi sessiyalardan həmin model haqqında bəzi detalları ortaya çıxmağa başlayıb. Məlumata əsasən OpenAI-nin elmi araşdırmalar üzrə vitse-prezidenti Aidan Clark bu açıq mənbəli modelin inkişafına rəhbərlik edir və layihə hələ ilkin mərhələdədir. Şirkət bu modeli - özünün o-series modellərinə bənzər məntiqi nəticə çıxarma qabiliyyətinə malik bir model - yayın əvvəlində təqdim etməyi planlaşdırır və onun digər açıq mənbəli məntiq modellərindən daha yaxşı nəticələr göstərməsini təmin etmək istəyir.
     Mənbələrin sözlərinə görə, OpenAI bu model üçün istifadəyə və kommersiyalaşdırmaya dair çox az məhdudiyyət qoyan, olduqca icazəverici bir lisenziya formasını araşdırır. Llama və Google-un Gemma kimi açıq mənbəli modelləri icma daxilində bəzi sərt tələblərinə görə tənqid olunmuşdular və görünür, OpenAI bu cür tənqidlərdən yayınmağa çalışır. ChatGPT-nin yaradıcısı OpenAI, modellərin təqdimatında açıq mənbəli yanaşma tətbiq edən Çin süni zəka şirkəti DeepSeek kimi rəqiblərdən artan təzyiqlə üzləşir. OpenAI-nin strategiyasından fərqli olaraq, bu açıq mənbəli rəqiblər modellərini süni zəka icmasına sınaqdan keçirmək və bəzi hallarda kommersiya məqsədilə istifadəyə təqdim edirlər.
     Bu yanaşma bəzi şirkətlər üçün son dərəcə uğurlu olub. Meta, Llama adlı açıq mənbəli süni zəka modelləri ailəsinə ciddi investisiyalar yönəldərək, mart ayının əvvəlində bildirmişdi ki, Llama modelləri artıq 1 milyarddan çox yüklənib. Eyni zamanda, DeepSeek qısa müddətdə böyük beynəlxalq istifadəçi bazası toplayıb və investorların diqqətini cəlb edib. Məlumata əsasən OpenAI-nin təqdim etməyə hazırlaşdığı açıq mənbəli model “mətni daxil et, mətni çıxar” prinsipinə əsaslanacaq və yüksək səviyyəli istehlakçı avadanlıqlarında işləyə biləcək. Həmçinin, bu modeldə tərtibatçılar məntiqi nəticə çıxarma funksiyasını aktivləşdirib-deaktivləşdirə biləcəklər - bu, son vaxtlar Anthropic və digər şirkətlərin təqdim etdikləri məntiqi modellərə bənzər olacaq.
     Əgər modelin təqdimatı müsbət qarşılanarsa, OpenAI gələcəkdə əlavə modellər, o cümlədən daha kiçik həcmli modellər də təqdim edə bilər. OpenAI-nin baş direktoru Sam Altman daha əvvəl bildirib ki, şirkət texnologiyalarını açıq mənbəli etmə məsələsində “tarixin səhv tərəfində” dayanıb. Yanvar ayında Reddit-də keçirilmiş sual-cavab sessiyasında Altman demişdi: “Şəxsən mən düşünürəm ki, fərqli bir open-source strategiyası tapmalıyıq. OpenAI-da hamı bu fikri paylaşmır və bu bizim hazırkı ən yüksək prioritetimiz deyil [...] Gələcəkdə daha yaxşı modellər yaradacağıq, lakin əvvəlki illərlə müqayisədə üstünlüyümüz daha az olacaq”. Altman həmçinin bildirib ki, OpenAI-nin yaxın vaxtlarda təqdim edəcəyi açıq mənbəli model ciddi şəkildə təhlükəsizlik baxımından yoxlanılacaq.
     Məlumatda qeyd edilib ki, şirkət bu model üçün model kartı - yəni OpenAI-nin daxili və xarici qiymətləndirmə və təhlükəsizlik testlərinin nəticələrini əhatə edən ətraflı texniki hesabat da təqdim etməyi planlaşdırır. “İstifadəyə verməzdən öncə bu modeli digər bütün modellərimizdə olduğu kimi hazırlıq çərçivəmizə uyğun olaraq qiymətləndirəcəyik” - deyə Altman ötən ay X platformasındakı paylaşımında bildirib. “Bundan əlavə, modelin çıxışdan sonra dəyişdiriləcəyini bildiyimiz üçün əlavə işlər də görəcəyik”. OpenAI bəzi süni zəka etikası üzrə mütəxəssislərin tənqidi ilə üzləşib. Bildirilir ki, şirkət son modellərinin təhlükəsizlik testlərini tələsik həyata keçirib və bəziləri üçün model kartlarını ümumiyyətlə paylaşmayıb. Altman həmçinin 2023-cü ilin noyabrında baş verən qısa müddətli vəzifədən uzaqlaşdırılmasından əvvəl OpenAI rəhbərliyini model təhlükəsizliyi yoxlamaları ilə bağlı yanıltmaqda da ittiham olunur.
Mənbə: Techcrunch


Son xəbərlər

Кликните на изображение чтобы обновить код, если он неразборчив