fbpx

Data Poisoning буюу өгөгдлийн хортой халдлага нь хиймэл оюун ухаан (AI) болон машин сургалтын системүүдэд зориудаар буруу мэдээлэл оруулж, тэдний шийдвэрийг өөрчлөх явдал юм. Өөрөөр хэлбэл, AI системийг “хортой” мэдээллээр тэжээж, түүнийг алдаа гаргахаар болгох гэсэн үг. Энэ нь машин сургалтын алгоритмд төөрөгдөл үүсгэж, буруу шийдвэр гаргуулахад хүргэнэ.

Data Poisoning-ийн төрлүүд

  1. Training Data Poisoning

    • Машин сургалтын загвар сургах үед хортой өгөгдөл оруулж, түүний шийдвэр гаргалтыг өөрчлөх. Жишээ: Спам шүүлтүүрийг буруу ажиллуулахын тулд “хортой” имэйлийг “аюулгүй” гэж ангилах өгөгдөл оруулах.

  2. Model Poisoning

    • AI/ML загварыг шинэчлэх үед халдлага хийж, алгоритмын логикыг өөрчлөхЖишээ: Нүүр царай таних системийг зориудаар тодорхой хүмүүсийг буруу таньдаг болгох.

  3. Data Injection (Өгөгдөл нэмэх халдлага)

    • Системд зориудаар хуурамч өгөгдөл оруулж, буруу хариу гаргуулахЖишээ: Санхүүгийн системд хуурамч гүйлгээний мэдээлэл оруулж, луйвар хийх.

  4. Backdoor Attacks (Нууц замын халдлага)

    • Машин сургалтын загварт тодорхой нөхцөлд зориудаар сул тал үүсгэхЖишээ: Камерын AI-д тодорхой дүрс (QR код гэх мэт) үзүүлэх үед системийг гажуудуулах.

Data Poisoning-ийн хор уршиг

  • Буруу шийдвэр гаргалт – AI болон автоматжуулсан системүүд алдаа гаргана.
  • Аюулгүй байдлын эрсдэл – Өгөгдөлд суурилсан хамгаалалтын системүүдийг хуурч болно.
  • Санхүүгийн хохирол – Буруу датагаар дамжуулан хөрөнгө оруулалт, санхүүгийн алгоритмд нөлөөлж болно.
  • Fake News & Deepfake – Хуурамч мэдээлэл тарааж, олон нийтийг төөрөгдүүлэх эрсдэлтэй.

Data Poisoning-оос хэрхэн хамгаалах вэ?

  • Өгөгдлийн чанарын хяналт – Дата эх үүсвэрийг баталгаажуулах.
  • Аномали илрүүлэх (Anomaly Detection) – Системийн гажуудал илрүүлэх алгоритм ашиглах. Secure Model Training – AI загварыг найдвартай орчинд хөгжүүлэх.
  • Шүүлтүүр болон баталгаажуулалт – Өгөгдлийг байнга шалгах.  Шинэчлэлт хийх – Өгөгдөл болон AI загваруудыг тогтмол шинэчлэх.

 

Дүгнэлт

Data Poisoning бол AI болон машин сургалтын системүүдийн аюулгүй байдалд заналхийлж буй ноцтой асуудал юм. Хэрэв буруу өгөгдөл AI системд нөлөөлбөл, түүний гаргасан шийдвэр алдаатай болох эрсдэлтэй. Тиймээс байгууллагууд өгөгдөл цуглуулах, хянах, хамгаалах бодлогыг сайжруулж, AI системүүдээ найдвартай өгөгдлөөр хангах нь чухал.

Leave a Reply