Почти 700 000 потребители. Това е броят на хора, които са участвали, без да го знаят в последния експеримент, който Facebook организира в социалната си мрежа и който нашумя през последните дни. От какво се състои този тест? В края на 2012 г. група изследователи тръгнаха да гадаят дали това, което четем в социалните медии, влияе на нашите чувства. Накратко: те искаха да разберат дали четенето на положителни неща ни кара да споделяме повече щастливи състояния и дали четенето на отрицателни неща ни кара да споделяме по-тъжни състояния.
Как са го направили? Идва проблемът: те промениха публикациите, които хората видяха в новинарския си канал или в новинарския раздел на Facebook. Според самите инженери обясняват в проучването, "манипулира" информацията което беше показано на всеки участник. Докато някои решиха да покажат повече положителни истории, други изпълниха профила на актуализациите с негативни конотации. Въпреки че откриха, че да, емоциите са заразителни и в социалните медии, те подкладиха и друг дебат: какво право има Facebook да манипулира или филтрира това, което виждаме?
Последиците от експеримента
Това, което направи Facebook, може да е под въпрос, да, но след като много медии съобщиха новината, мнозина обясниха, че това е включено в правилата за използване на социалната мрежа. Когато се регистрирате, ги приемате. Съществува клауза, която гласи, че цялата информация, която потребителят предоставя, може да се използва за вътрешна употреба и изследвания. Следователно, ако сте се регистрирали и използвате Facebook, трябва да се съгласите с това. Всъщност, както е обяснено в Read Write Web, единственото решение да не бъде целта на проучването за Facebook е изтрийте акаунта си.
Датите обаче не се вписват съвсем. Изследването е проведено през седмица през януари 2012 г., но Facebook не добави тази клауза към условията за ползване до май 2012 Това може да е голям проблем за социалната мрежа, която всъщност вече е разследвана за нея от агенцията за защита на данните в Обединеното кралство. Този орган проверява дали потребителите не са дали съгласието си за участие и информацията, която Facebook е събрал.
Но това Facebook експериментира с потребителите си като човешки морски свинчета не е нещо ново, и всъщност създаването на екипа, който отговаря за тези тестове, се състоя през 2007 г. Пример е даден в The Wall Street Journal: през 2010 г. бяха изпратени съобщения за „политическа мобилизация“ до повече от 61 милиона души да гласуват в избори, проведени същата година в Съединените щати. За Крамер, изследователя, когото споменахме по-рано, Facebook е най-голямата област на изследване в света и голямото предимство е, че те могат да извършват експерименти бързо и с множество участници. Това не беше първото проучване и няма да е последният.
Facebook и изтичане на информация
Фактът че Facebook филтрира нашата емисия новини Това не е нещо ново, въпреки че много хора не са наясно с това. Да предположим, че имате 100 приятели. Ще видите ли историите на тези 100 приятели, абсолютно всичко, което те публикуват, във вашия профил? Отговорът е отрицателен. За разлика от това, което се случва в други социални мрежи, Facebook използва алгоритъм, който решава каква информация е подходяща за всеки потребител и каква не. Въз основа на това ви показва някои актуализации или други.
Направете експеримент: ако имате акаунт във Facebook и дълго време не сте чели нищо от приятел или сте изненадани, че не сте виждали скорошни актуализации от страница, която следвате, посетете профила им директно. Изненада! Актуализациите са налични, дори и да не стигат до вас. По някаква причина алгоритъмът на социалната мрежа счита, че те не са от значение за вас и затова не ви ги показва. Това е нещо, което винаги е било така и което те оправдават да го казват, ако наистина са ни научили на всичко, бихме се уплашили от толкова много информация. По думите на Брайън Боланд, ръководител на маркетинговия екип на Facebook:
Връщайки се към предишния пример, ако потребител има 100 приятели и публикува снимка, само 20 от тях могат да я видят в своята емисия новини. Тази цифра е известна в статистиката на Facebook с името на "обхват": броят на хората, на които се показва определена актуализация. Ако имате личен акаунт, обхватът на вашите публикации е тайна. Ако, от друга страна, имате страница във Facebook (за бизнес, марка и т.н.), обхватът се появява в долната част на всяка публикация. Но на какво се основава алгоритъмът, за да решите дали дадена история е от значение за вас?
Това е, което се знае за алгоритъма на Facebook
Този въпрос, който току-що си зададохме, е точно един от проблемите, тъй като Facebook никога не е давал много подробности за него. Първоначално този алгоритъм беше известен като EdgeRank и се казваше, че зависи основно от три параметъра: афинитета на потребителя с източника, важността на съдържанието (ако е получил „харесвания“, коментари.) И времето (какво актуализирано или не какво е). Говорим в миналото, защото Facebook спря да използва този термин преди няколко години и алгоритъмът е днес, много по-сложно.
Всъщност преди няколко месеца Facebook осъзна, че настоящият алгоритъм зависи от повече от 100 000 параметъра. Да, трите ключа за EdgeRank все още се разглеждат, но днес процесът на избор на съдържание е много по-пълен и усъвършенстван. Развитието на този алгоритъм е логично за Ларс Backstroom, инженерът, отговарящ за системата, който през април миналата година направи сравнение с Google, за да го обясни. През годините търсачките са усъвършенствали своите алгоритми, за да показват най-подходящата информация по-високо. С Facebook те искаха да направят същото.
Въпреки всичко, все още има Общи „съвети“ как да получите по-голям обхват. Звучи ли ви познато да видите как някои марки използват загадки или въпроси, които насърчават коментарите? Обикновено се виждат публикации от типа „Завършете изречението“ или подобни. Колкото повече коментари и „харесвания“ има даден статус, толкова по-голям обхват ще има. Същото се случва и с изображенията: като цяло те са склонни да имат по-голям обхват от друго съдържание, като връзки или текстови състояния. Но това са общи положения, които освен това се променят с течение на времето, тъй като Facebook непрекъснато прави корекции с това, което учи.
Връщайки се към примера, който дадохме преди. Ако дадена страница реши да публикува „Завършете изречението: Харесвам _______“, какво допринася това за потребителите? Наистина малко, но тъй като те обикновено са публикации с много коментари, преди те са имали голям обхват. Ами многократните актуализации, отново и отново, които ви карат да го „харесате“? Действията могат да заблудят алгоритъма, но през декември миналата година Facebook обяви подобрения и промени в него именно, за да предотврати преминаването на този тип публикации през филтъра. Алгоритъмът и неговите инженери, те се учат бързо и те постоянно правят промени.
Потребителят не контролира
Една от най-честите критики към Facebook за този алгоритъм е, че потребителят всъщност не контролира това, което вижда. Ако искате да видите всички актуализации от приятел или страница, няма как да кажете на социалната мрежа. Можете да добавите приятелите си в списъка "Най-добри приятели", нещо, което алгоритъмът ще вземе предвид, но нищо друго. Няма начин да се абонирате, за да видите всичко.
Ами ако вместо да видите публикациите, подредени по важност, искате да ги видите сортирани по дата? В лявата колона, в малката стрелка до „Новини“, можете да изберете „Най-скорошни“, но това е временна настройка. Винаги, когато искате да видите актуализациите в хронологичен ред, ще трябва да преминете през същия процес. Накратко: нямате друг избор, освен да позволите на Facebook да направи селекцията и да ги поръча вместо вас.
Кой е Facebook, за да каже какво е важно за потребителя и какво не? Въпреки че мнозина задават този въпрос, истината е, че това е нещо, което социалната мрежа прави от няколко години и не се очаква да го променят в близко бъдеще. Това просто работи по-добре за тях по този начин и потребителят няма друг избор, освен да приеме, че други въз основа на неизвестен алгоритъм решават какво им се показва и какво не.
Пари в замяна на увеличаване на обхвата
Невъзможно е да се говори за обхват във Facebook, без да се спомене друг от повтарящите се противоречия. Има два вида обхват: органичен (който е този, който получава нормална актуализация при публикуване) и платен. Ако имате страница и публикувате актуализация, можете доплатете пари за Facebook, за да ги покажете на повече хора. И така, защо обхватът спада с годините? Наистина ли е техника за социални медии, за да получите повече доходи?
Има много, които защитават, че е така. В Ogilvy & Mather те наричат това като "Facebook Zero" ефект, като гарантират, че ще дойде времето, когато органичният обхват ще бъде нулев, а ние ще имаме само платен обхват. За да направят това, те са анализирали няколко страници на своите клиенти с над 500 000 „харесвания“ и са получили доста отрицателна статистика: обхватът е спаднал рязко.
От Facebook очевидно категорично отричат това да е така. Без да съм прецедент, в този случай съм съгласен със социалната мрежа: има все повече страници и повече конкуренция, така че е нормално обхватът да намалява. С това, което им струва да убедят малките и средните компании да направят скок към социалната сфера, наистина ли ще въведат този хибриден модел (органичен и платен) за няколко евро?
Филтърният балон
Ели Парисър, ръководител на Upworthy и кибер активист, отдавна осъди точно този тип поведение от страна на различни интернет услуги, а не само на Facebook. За Парисър е опасно за човек винаги бъдете изложени на свързана информация нея и нейните вярвания. Това е, което той нарича филтър балон и което той обясни с BP в пример. Google също персонализира търсенията, така че ако някой търси петролната компания BP, той може да получи информация за инвестициите, а друго лице със същия низ за търсене може да достигне до страница, където обяснява известния разлив на компанията.
Парисър казва, че това кара хората да "се затварят за нови идеи и важна информация", създавайки впечатлението, че всичко това, което съществува, е това, което виждаме около нас, без да излизаме отвъд. Това, според изпълнителната власт, прави хората по-уязвими от манипулация. Тази концепция не е нова и още през 2011 г. Хавиер де Вега я обобщи в своя блог:
Мистерията около алгоритъма на Facebook не помага на това. Като оставим настрана целта на манипулацията (опитът да натъжим хората с отрицателни актуализации не е от значение), фактът, че научихме само за ръчната модификация на алгоритъма от заключенията на проучването, вече показва, че в действителност Facebook е показвайки ни какво искат и въз основа на това, което смятат. Няма прозрачност.
Какво възприемане на реалността бихме имали, ако виждаме съдържание само от източник или определен мисловен поток? Например, ако четем само съдържание от La Razón? Или ако можехме да четем информация само от Public? Нашата реалност ще бъде повлияна от това, което четем, тъй като нямаме начин да противопоставим това, което казват другите. Във Facebook и други интернет услуги, където информацията се филтрира и според защитниците на този "филтър балон", се случва нещо подобно: те ни показват това, което смятат, че искаме да видим, а не реалността. И което е по-опасно: ние, потребителите, нямаме контрола или силата да го променим.