මේ දිනවල කෘතිම බුද්ධිය (AI) යොදාගෙන සිදු කරන වංචා ශ්රී ලංකාවේ වේගයෙන් පැතිර යනවා.
ඔයා ළඟදි දැක්කද ප්රසිද්ධ කෙනෙක් මුදල් ආයෝජනය කරන්න කියන වීඩියෝ එකක්?
නැත්නම්, ඔයාගෙ නැදෑ මල්ලිගෙ / නංගිගෙ කටහඬට සමාන හඬින් සල්ලි ඉල්ලලා කෝල් එකක් ආවද?
අවධානයෙන් ඉන්න! ඒක ඇත්ත නොවෙන්න පුළුවන්!
ඒ මොනවද දන්නවද? ඒ තමයි AI වලින් කරන වංචා (ස්කැම්) 👀
ඩීප්ෆේක් වීඩියෝ, හඬ අනුකරණය (voice cloning), වගේම ව්යාජ පණිවිඩ හරහා මේ වංචා සිදු කරන්න පුළුවන්.
AI ස්කැම් කියන්නේ හරියටම මොකක්ද බලමු.
දැන් ඉන්න වංචනිකයෝ AI පාවිච්චි කරනවා 👇:
- 🎙️ හඬ අනුකරණයට (ඔයාගෙ ආදරණීයයන්ගේ හඬ අනුකරණය
- 🎥 ඩීප්ෆේක් වීඩියෝ නිර්මාණයට (ජනප්රිය චරිත වංචනික නිෂ්පාදන ප්රචාරය කරනවා වගේ පෙන්වන වීඩියෝ
- ▶️ මේ ඩීප්ෆේක් එක බලන්නකො
- 💬 වැරදි පණිවිඩ හදන්න (ඔයාගෙ යාළුවො, පවුලේ කට්ටිය, බැංකුව විදියට බොරුවට පෙනී සිට ව්යාජ පණිවිඩ එවන්න පුළුවන්)
- 💼 ව්යාජ රැකියා හෝ ආයෝජන යෝජනා සඳහා (චැට්බොට් සහ ව්යාජ වෙබ්අඩවි පාවිච්චියෙන්)
✅ ආරක්ෂා වෙන්නෙ කොහොමද?
- විශ්වාස කරන්න කලින් විමසිල්ලෙන් බලන්න – හඬ හෝ වීඩියෝව ඇත්ත වුණත් මුදල් නම් යවන්න එපා, ඔයාගෙ පුද්ගලික විස්තර දෙන්නත් එපා.
- නොදන්න ලින්ක් ක්ලික් කරන්න එපා – මැසේජ්, ඊමේල්, හෝ යෙදුම් (ඇප්) වල.
- පිළිගත් මූලාශ්ර බලන්න – වංචා ගැන හිතවතී හෝ ශ්රී ලංකා පරිගණක හදිසි ප්රතිචාර සංසදය හරහා සිදුකරන නිවේදන වැනි.
- OTP (One Time Password) කාටවත් දෙන්න එපා – ගොඩක් වංචාකරුවන් ඒවා පාවිච්චි කරලා මුදල්, දත්ත සොරකම් කරනවා.
- ශක්තිමත් මුරපද (පාස්වර්ඩ්) භාවිත කර හැකි සෑම විටම ටූ-ෆැක්ට ඔතෙන්ටිකේෂන් (2FA) සක්රීය කරන්න – ඔයාගෙ ගිණුම් ආරක්ෂා කරගන්න.
- ඔයාගෙ පවුලේ අය එක්ක කතා කරන්න – විශේෂයෙන්ම වැඩිහිටියන් සහ නව යොවුන් වියේ පසුවන්නන්, වංචාවලට ඉතා පහසුවෙන් අහු වෙන්න පුළුවන්.
🔒 ඇත්තම වගේ නම්, ඉතා ඉක්මනින් උත්තරයක් ඉල්ලනවා නම්, අදහාගන්න බැරි තරම් හොඳ නම්….
ආයෙත් හිතන්න. පරීක්ෂා කරන්න. ආරක්ෂා වෙන්න.
අපේ වගේම අපේ ආදරණීයයන්ගේ ජීවිතත් AI වංචාවලින් ආරක්ෂා කරගමු.
ඔන්ලයින් ආරක්ෂාව ගැන දැනුවත් විය හැකි වෙබ්අඩවි:
හිතවතී (https://www.hithawathi.lk)
ශ්රී ලංකා පරිගණක හදිසි ප්රතිචාර සංසදය (https://www.cert.gov.lk)
මූලාශ්ර:
0 Comments