Фалшивите новини вече са политическо оръжие

Фалшивите новини вече са политическо оръжие | StandartNews.com

Преслав Наков е един от малкото компютърни специалисти у нас, който е предпочел да бъде по-скоро изследовател и преподавател, отколкото практик. В момента е в компютърния университет в Катар и работи върху проект, свързан с разкриването на фалшиви новини.

- Господин Наков, Вие работите върху проект, свързан с разпознаването на фалшиви новини. Може ли да разкажете повече за него, както и за кариерата си?
- Аз работя в Катарския институт по компютърни изследвания, преди това съм завършил Софийския университет "Св. Климент Охридски", специалност информатика. Правих докторантура в "Бъркли", известно време бях в БАН, след това се преместих в университета на Сингапур и оттам - в Катар.
В момента разработваме проект с Масачузетския технологичен университет, като целта е да помогнем на хората да разберат какво четат и да получат една по-балансирана информация.
- Как можем да разпознаем фалшивите новини? Какъв е начинът един потребител да разбере дали чете фейк?
- Как можем да разпознаем дали една новина е фалшива - в общи линии е откъде идва. Кой е източникът - човек, медия, и дали можем да вярваме на този източник. Другото е какво е казано и как е казано. Дали информацията идва от интернет, от Туитър, от Фейсбук, как други потребители в мрежата реагират на тази информация. Всички тези неща се включват в система, която посредством една невронна система решава дали това са новини, на които може да се вярва.
- А какви са останалите задачи на проекта?
- Втората задача е свързана с проверка дали самото твърдение е вярно или не. Основно се проверяват твърдения на политици, но и не само на тях. Тук се опитваме на базата на хиляди проверени твърдения от журналисти, които правят проверка на факти, на базата на техните решения автоматично да проверяваме фактите. Как го правим - проверяваме какво се е случило в действителност, как е реагирано в социалните мрежи и медиите. Например, ако медия, която е надеждна, подкрепя дадено твърдение, това е по-скоро вярно. Ако "лоша" медия го подкрепя /тоест такава, за която знаем, че разпространява дезинформация/, това по-скоро накланя новината в обратната посока. Тук става дума и за моделирането - доколко можем да вярваме на профила на дадена медия. Има и друг вариант - когато се проверяват твърденията във форуми, например БГ-мама. Правили сме го и за катарски форум, който е еквивалентен на БГ-мама, и за български. Там например има един въпрос, но много различни отговори, и ние трябва да идентифицираме кой от тези отговори е добър - в смисъл кой отговаря директно на въпроса, а не просто се заяжда с други потребители.
- Как се случва това?
- Чрез проекта ние всъщност решаваме цял кръг задачи. Първата е свързана с възникването на различни сайтове за автоматична проверка, в момента има над 100. Такива в момента има и в България. Ние имаме няколко различни системи, които решават различни задачи, свързани с различните типове потребители. Едни от тях са насочени да подпомагат работата на журналисти, които искат да извършат проверка на определени факти. Друг тип системи са насочени към крайния потребител, за да може самият той да знае какво чете, а трети могат да бъдат насочени към социалните мрежи. Може например да има конкретно твърдение, което се нуждае от проверка. Има сайтове, които могат да проверят това. Въпросът е, че в този поток може да има над хиляда изречения, кои от тях трябва да бъдат филтрирани и проверени. Ние имаме такава система, която работи на български и на арабски. Опитваме се да създадем базирана на невронните мрежи система за изкуствен интелект, която да взема решения, свързани с тези новини. Целта на системата не е да каже "Това твърдение е вярно". Нейната цел е да каже кои са нещата, които си струва да се проверят. Примерно твърдения, които звучат бомбастично, но, от друга страна, може да са интересни на широката публика. Всъщност системата с изкуствен интелект взема решение на базата на публикацията в даден контекст.
Друга система, която сме правили както за БГ-мама, така и за подобен катарски форум, е да проверим кой от отговорите е "добър", тоест отговаря директно на въпроса, а не се заяжда с останалите потребители. Това успешно може да се приложи за всички форуми. Другата система, която имаме, е свързана с това, че във форума се задава нов въпрос. Опитваме се да му даден директно отговор, ако той вече е бил задаван отпреди. Вместо потребителят да постне въпроса във форума и да чака известно време, за да получи отговор, ние автоматично се опитваме да намерим подобен въпрос, да намерим добри отговори и да видим дали може някой от тях да бъде даден на потребителя. Понякога обаче има въпрос "С колко месеца мога да си удължа визата?" и един отговаря "С три месеца", а друг "С шест". И двата отговора са отбелязани като добри, но се налага да бъде проверено доколко са достоверни. Това е фундаментален проблем и на търсенето в "Гугъл". Навремето беше достатъчно да отвориш "Гугъл", да ти излезе един отговор и това ти стига. В момента обаче трябва да разбереш дали това нещо е вероятно като данни. Следващото ниво, по което работим, е свързано не толкова с проверка на твърдения. А и да се отсее дали някои неща се правят за пари, дали се правят само за това, че са хумористични, като например "Неновините". Друго нещо, което предлагаме, е свързано с характеризирането на медиите. Тоест ние правим предположението дали дадена новина е вярна или не, на базата на това кой го казва това нещо. Профилираме и начина на изказ - тоест начина, по който е поднесена дадена новина. Опитваме се да направим профил и за това, дали дадена медия има пристрастия в определена посока. У нас например идентификаторите могат да бъдат дали е лява или дясна, в други страни - дали е светска или ислямистка. Но, така или иначе, се идентифицира какви са пристрастията на медията по определени въпроси. Идеята е, когато потребителят чете някаква статия, да знае какво чете и какво стои зад написаното.
- Работили сте и по идентифицирането на троловете?
- Да, работили сме по тази тема с профилирането им. Преди две години работихме сериозно по тази тема с една българска медия и нейния форум. Сигурно си спомняте, че в този период имаше един много сериозен скандал, когато бе публикуван списък на платени тролове. В момента, в който той бе оповестен, някои от тях закриха профилите си и създадоха нови. Всъщност е много интересно, че след това доста хора започнаха да набеждават други потребители на форумите, че са тролове. Има начин да бъдат различени платените от набедените. Вторите са доста повече от първите. Платените наистина са много малко. Миналата година бе организиран "Хакатон" тук, у нас, точно за търсене на фалшиви новини. Аз ръководя различни дипломни работи в Софийския университет и съм горд, че точно мои студенти спечелиха състезанието. Очакваме наесен да се проведе вторият "Хакатон" у нас.
- След като десетки лични данни изтекоха от Фейсбук към частни компании, как можем да се предпазим и да проверим кой какво прави с информацията за нас в социалните мрежи?
- Фейсбук и други компании като Туитър, отчасти във връзка с атаката, под която попаднаха, позволяват потребителят да види какво всъщност знае за него социалната мрежа, включително и да коригира правата на достъп. Проблемът е, че има два типа фалшиви новини. По отношение на фейк нюз е не толкова, че информацията не е истинска. Ние на неистинска информация сме били подложени доста отдавна, има и жълта преса, и прочие. Но в момента основният проблем на фалшивите новини не е в това, че не са истински. А в това, че са превърнати в политическо оръжие. А другото е, че много компании получават чрез социалните мрежи информация за нас не само като лични данни, но и като предпочитания, като психологически профил, какво постваме, какво лайкваме и прочие. И оттук нататък една добра кампания може да спечели в този град изборите за даден кандидат на базата на това, което вълнува потребителите - дали е забраната на оръжието, което вълнува много хора в САЩ, дали е миграцията, дали безработицата. Могат да Ви облъчат и да постигнат някакво влияние върху Вас.

Стела Стоянова

Вижте всички актуални новини от Standartnews.com

Коментирай