fbpx

Сүүлийн жилүүдэд ChatGPT зэрэг системүүдийг хүмүүс “хиймэл оюун ухаан” гэж нэрлэх нь элбэг болсон. Гэвч эдгээр системүүд жинхэнэ утгаараа бодож, ойлгодог AI биш юм. Тэднийг Том хэлний загвар (Large Language Model, LLM) гэж нэрлэдэг бөгөөд үндсэндээ үгийн магадлал тооцоолдог системүүд юм.

LLM нь асар их хэмжээний текст дээр сургагддаг. Энэ сургалтын явцад тэд үгс хоорондын хэв маяг, давтамжийг сурч авдаг. Хэрэглэгч асуулт бичихэд LLM нь “энэ өгүүлбэрийн дараа ямар үг хамгийн магадлалтай вэ?” гэдгийг л тооцоолж хариу үүсгэнэ. Өөрөөр хэлбэл, тэд үнэнийг шалгахгүй, утгыг ойлгохгүй — зөвхөн хамгийн тохиромжтой сонсогдох хариуг гаргадаг.

Энэ нь хүмүүсийн төсөөлдөг “жинхэнэ AI”-аас ихээхэн ялгаатай. Жинхэнэ оюун ухаан гэдэг нь ойлгох, зорилго тавих, шинэ нөхцөлд дасан зохицох чадвартай байхыг хэлнэ. Харин LLM-д ухамсар, зорилго, ойлголт гэж байхгүй.

Тэгвэл яагаад хүмүүс үүнийг AI гэж нэрлэдэг вэ? Учир нь хэл бол хүний оюун ухааны хамгийн тод илрэл. Машин хүний адил ярих үед бид түүнийг ойлгож байна гэж андуурдаг. Үүнд маркетинг, хэвлэл мэдээллийн хэтрүүлэг ч нөлөөлдөг.

Энэ ялгааг ойлгох нь чухал. LLM-ийг бодож сэтгэдэг систем гэж итгэвэл хэт найдвар тавих эрсдэлтэй. AI бас мэдээлэл зохиох магадлалтай байдаг учир сануулгатай байдаг.

Leave a Reply