Служителите използват ли AI за изготвяне на доклади? Студентите използват ли AI за писане на курсови работи? Ново мобилно приложение може да провери това.
От екипа на Converus
От години компютърните хакове застрашават нашите данни, поверителността на информацията и нашата самоличност. Понякога вируси или ransomware ни костват време, лишават ни от достъп или причиняват други неудобства като загуба на работа и продуктивност. В глобален мащаб са застрашени не само отделните индивиди, но и критична инфраструктура. Загубите, освен икономически, могат да бъдат имиджови, психологични и пр.
Надпревара в технологичната схватка
Отговорът на подобни атаки в исторически план е бил надпревара в технологичното въоръжаване, където хакери и експерти по киберсигурност се „надскачат“ един друг. Тъй като хакерските атаки стават все по-сложни, експертите по киберсигурност реагират с по-модерни алгоритми и технологии, за да ги осуетят.
В този конкурентен водовъртеж се губи осъзнаването, че сърцето на проблема е злонамерен индивид, който умишлено или поради небрежност експлоатира системата. В повечето случаи слабата степен на сигурност на паролите, изгубените карти за достъп, Shelfware и нехайството отварят вратата за хакерски атаки – това са повече от недостатъци в кода. Затварянето на тази врата има повече общо с управлението на участващите хора, отколкото с технологията, която използват.
AI надпревара във въоръжаването
Тъй като ChatGPT и други AI решения излизат на пазара, ние сме изумени от силата и обхвата на тяхното приложение. Но както при предишните технологии, ще има сериозни етични дилеми при използването на AI. За съжаление, злонамерените индивиди винаги участват в надпреварата за въоръжаването, само че този път с AI.
AI само ще направи проблема по-труден за разрешаване чрез традиционни средства. Как можем да разберем дали някой е използвал ChatGPT, за да направи нещо, което е трябвало да направи човек? Примерите включват академични тестове, реферати, оригинални трудове, идеи, дизайни, молби за кредит, лични и здравни данни, автобиографии и пр.
За да се справят с това предизвикателство, експертите увековечават грешките от миналото, като разработват AI инструменти, за да надхитрят използването и приложението на AI. По-конкретно се разработват нови алгоритми, които да помогнат идентифицирането на случаите, в които е използван AI. Но както винаги, сърцевината на проблема е човекът, който експлоатира системата. Имаме нужда от решения, които могат да оценят етиката на човека, нещо, което AI не може да направи.
Отговорът е в приложението на нови технологии, които могат да анализират потребителя. Имаме необходимостта да можем просто да попитаме някого дали е използвал AI, за да създаде работата си и след това уверено да се доверим на отговора.
Възможно ли е това? Хората са известни със своята пословична неблагонадеждност. Лъжата е лесна. Или не е?
Наскоро новите технологии за верификация на твърдения направиха същите квантови скокове като AI. Ново приложение с усъвършенствани алгоритми вече може да определи посредством мобилен телефон дали човек казва истината. С точност около 80%.
С прост 5-минутен тест можете да попитате ученик: „Използва ли изкуствен интелект при някоя задача или тест този семестър?“ или дори по-конкретно, „Използва ли AI при писането на дисертацията си?“ Способността да се получат отговори на тези въпроси би осуетила нерегламентираното използване на AI много по-ефективно, отколкото прилагането на алгоритъм към цeлият академичен труд на дадено лице, за да се определи дали AI го е генерирал. Същото важи и за другите случаи на употреба, споменати по-горе: „Използва ли AI за изготвяне на този доклад?“, „Използва ли AI, за да разработиш тези данни (здравни или други)?“, „Изкуствен интелект ли използва, за да генерира тези визуализации?“ и пр.
Краен срок? Оценяването на човека в центъра на AI приложението ще даде по-добри и по-бързи резултати, отколкото AI да оценява етичната или автентична употреба на AI!
Спрете въоръжаването с AI
В исторически план, надпреварите във въоръжаването никога не се печелят – те просто се проточват. Надяваме се, че с новите технологии за верификация на твърдения можем да се откажем от стратегиите за технологично управление, които сме прилагали в миналото. Време е да намерим трайни решения за важни етични приложения на обещаващи нови технологии, като AI.
Коментари powered by CComment