Внимавајте што откривате! Седум клучни правила за раговор со ChatGPT

32

Ако не сте сигурни дали ви е дозволено да споделите некои информации или не, следете го ова едноставно упатство – ако не сакате некој да го повтори, види или објави вашето барање некаде на интернет, на огласна табла или во медиумите, a веројатно не сакате да го поставите на модел со вештачка интелигенција.

Големите јазични модели, или алатките за вештачка интелигенција, станаа речиси неопходен дел од животот. Дури и ако не ги користите активно секој ден, веројатно користите некоја услуга што користи модел на вештачка интелигенција во позадина, како што се ChatGPT, Gemini, Perplexity и слични.

Сепак, иако многумина се потпираат на овие услуги за да им помогнат со нивните секојдневни деловни (и приватни) обврски, тие исто така не се свесни дека секое нивно користење на овие услуги претставува одредена безбедносна закана.

Имено, луѓето, во својата желба да ја завршат работата што е можно побрзо, честопати откриваат чувствителни и приватни информации на чет-ботови и други модели на вештачка интелигенција кои не треба да им се откриваат на други луѓе. Но, четботовите не се луѓе, нели?

Всушност, во овој контекст, тие треба да се сметаат за лица, бидејќи исто како што не би откриле информации за себе или за компанијата за која работите на никого на улица, не треба лесно да ги внесувате во чет-ботовите со вештачка интелигенција.

Иако компаниите што ги развиваат овие модели најчесто не користат податоци од разговорите на корисниците со моделот (иако, на пример, DeepSeek го тренира својот модел со вештачка интелигенција на овој начин) за понатамошно тренирање на моделот, тоа не значи дека овие податоци не остануваат евидентирани во вашата корисничка сметка. Сè што е потребно е некој да седне пред вашиот компјутер, да го отвори вашиот омилен модел на вештачка интелигенција и да ја прочита вашата историја на разговори, а со тоа и чувствителните податоци.

Кои чувствителни информации не треба да ги споделувате?

1) Лични податоци

Без разлика колку доверба имате во моделите на вештачка интелигенција, за ваша сопствена безбедност, никогаш не треба да го споделувате вашето целосно име, адреса, број на социјално осигурување, број на лична карта, број на пасош и слични документи за идентификација во разговор со кој било четбот со вештачка интелигенција. Истото важи и за фотографиите од таквите документи за идентификација.

2) Финансиски информации

Исто како што постојано предупредуваме против споделување финансиски информации како што се броеви на кредитни или дебитни картички, детали за банкарска сметка или лозинки за онлајн или мобилно банкарство, истото правило важи и за споделување на овие податоци со модели на вештачка интелигенција.

3) Лозинки

Дали воопшто треба да објаснуваме? Споделувањето лозинки за пристап до кориснички сметки или сметки во вашата компанија е крајно неодговорно. Исто како што не би ги дале клучевите и адресата на станот на странец на улица, не ги откривајте вашите лозинки и кориснички имиња на модел со вештачка интелигенција.

4) Чувствителни или доверливи информации

Не треба да се однесувате кон модел на вештачка интелигенција како кон исповедник или најдобар пријател и да му откривате чувствителни или тајни информации. Приватните податоци како што се кој кого изневерува и со кого или што направил колега на работа не се информации што треба да ги знае моделот на вештачка интелигенција. Истото важи и за приватни информации за здравјето на некого или членови на семејството.

5) Информации за компанијата за која работите или со која соработувате

Можеби е примамливо да ги внесете информациите во ChatGPT и да го замолите да состави договор помеѓу двете компании, но тоа не е паметен потег. Истото важи и за сите документи што содржат доверливи информации (информации за прототипови, заштитени патенти итн.), како и информации за состаноци, деловни планови и финансии на компанијата. Токму затоа некои компании го блокираат пристапот до ChatGPT и други модели на вештачка интелигенција на официјалните компјутери.

6) Експлицитна содржина

Дури и ако на шега побаравте од ChatGPT информации за „како трајно да се ослободите од некого“, тоа би можело да ви предизвика проблеми. Не само што ChatGPT нема да одговори на такво прашање, туку некои модели на вештачка интелигенција ги означуваат таквите сомнителни прашања и ги пријавуваат во полиција. Значи, ако сте во искушение да го прашате за совет, подобро воздржете се.

7) Медицински информации

Дали сте слушнале за терминот „Д-р Гугл“? Па, многу корисници го заменија Google со ChatGPT и го третираат како личен лекар. Нема ништо лошо во тоа да побарате појаснување од ChatGPT за одреден наод, но избегнувајте специфични информации за идентификација во вашето барање. Ве молам генерализирајте го вашето барање. На пример, „препорачајте вежби за маж во неговите 30-ти години кој има проблеми со ишијас“.

ИЗДВОЕНИ