marți, 17 aprilie 2018

I want to share an update on the Cambridge Analytica situation...

Dan Diaconu
La ora actuală este un imens scandal în jurul firmei britanice Cambridge Analytica. Care-i problema cu ei? Cică ar fi avut date ilegal luate de la Facebook şi, prin intermediul acestor date, ar fi reuşit influenţarea alegerilor din SUA şi a campaniei pentru Brexit. Serios, bre? Păi ar cam fi cazul să ne tăvălim cu curul de pământ şi să plângem pe la colţuri cum că Putin, că caracatiţa(sic!) rusă, etc. etc.
Lumea întreagă e crăcănată de frică. S-a descoperit un monstru atât de mare încât până şi Theresa May a rămas ca viţica la poarta nouă. În paranteză fie spus, mă şi întreb cum de până acum nu observase nimeni că duduia premier e cam viţică spre vacă pur sânge.
Dar să lăsăm glumele la o parte şi să vedem ce-au făcut criminalii ăia de Cambridge Analytica. În principiu cam ceea ce face orice bovin care interacţionează cu facebook-ul: au citit profilul(care e public), au preluat postările de pe wall-urile proprii ale utilizatorilor şi le-au stocat. Ce mare rahat o fi în toată chestia asta? O poate face oricine şi, aşa cum am mai spus-o, un bou care navighează pe facebook o face zilnic. Doar că n-o ţine minte.
Ceea ce au făcut ăia diferit a fost însă altceva: au creat aplicaţii care cereau permisiunea accesării profilului(un fel de împrietenire cu tine) şi, prin intermediul acestor chestii, au avut acces nelimitat la profilul utilizatorului, chiar dacă el era setat pe privat. Ştiţi postările alea viral-idioate de genul „Faţa ta sugerează că ai inteligenţa lui Einstein”? Exact asta sunt: aplicaţii care colectează date. Nu-i nimic ilegal în asta. Poate ilegală e prostia utilizatorului de facebook care dă accept oricărei cereri de permisiune doar ca să se dea mare faţă de piţipoancele/piţiponcii din lista proprie cu inteligenţa lui sclipitor de întunecată.
După ce-au colectat datele, au făcut analizele de sentiment pe texte şi au început să facă publicitate psiho-targetată, adică au lucrat deştept. Publicitatea lor a dat rezultate, astfel încât veniturile le-au crescut simţitor. Asta pentru că, în timp ce Zuki îţi vinde like-uri false şi iluzii oarbe, ăia chiar vindeau rezultate certe. Cu toate că nu-i o mare chestie(analiza de sentiment înseamnă 20-30 de linii de cod), băieţii au lucrat la nivel mare şi-au câştigat pe merit.
Ceea ce nu înţeleg este ce anume e ilegal în toată acţiunea ăstora. Şi, mai mult, nu înţeleg de ce ar fi imoral ca Cambridge Analytica să deţină aceste date, în timp ce deţinerea lor de către Facebook, CIA, NSA, etc. ar fi morală. Toată lumea a observat că în campania electorală americană Facebook a tras la greu cu Clinton. Însăşi impunerea tembelelor „standarde ale comunităţii” a reprezentat un pas împotriva conservatorismului. Şi nu a fost singurul. Cenzura dementă a articolelor şi ideilor conservatoare, impunerea „algoritmică” a progresismului şi neomarxismului, toate acestea fac parte din arsenalul considerat „decent”, „de bun simţ”, „normal” s.a.m.d.
Vina englezilor de la CA este aceea că au fost mai deştepţi decât toţi tălâmbii facebook-ului şi ai serviciilor secrete americane la un loc, că i-au făcut pe boii ăia varză pe teritoriul lor. Într-adevăr, asta e o vină majoră, mai ales în lumea facebook unde a gândi a devenit ilegal. Cam despre asta e vorba. Despre asta şi despre extrem de multă prostie. Vestea bună însă este aceea că tot ceea ce a făcut Cambridge Analytica poate fi replicat cu uşurinţă. Şi asta în ciuda restricţiilor pe care le vor introduce plăvanii de la Facebook.

Image may contain: drawing




Mark Zuckerberg
I want to share an update on the Cambridge Analytica situation -- including the steps we've already taken and our next steps to address this important issue.
We have a responsibility to protect your data, and if we can't then we don't deserve to serve you. I've been working to understand exactly what happened and how to make sure this doesn't happen again. The good news is that the most important actions to prevent this from happening again today we have already taken years ago. But we also made mistakes, there's more to do, and we need to step up and do it.
Here's a timeline of the events:
In 2007, we launched the Facebook Platform with the vision that more apps should be social. Your calendar should be able to show your friends' birthdays, your maps should show where your friends live, and your address book should show their pictures. To do this, we enabled people to log into apps and share who their friends were and some information about them.
In 2013, a Cambridge University researcher named Aleksandr Kogan created a personality quiz app. It was installed by around 300,000 people who shared their data as well as some of their friends' data. Given the way our platform worked at the time this meant Kogan was able to access tens of millions of their friends' data.
In 2014, to prevent abusive apps, we announced that we were changing the entire platform to dramatically limit the data apps could access. Most importantly, apps like Kogan's could no longer ask for data about a person's friends unless their friends had also authorized the app. We also required developers to get approval from us before they could request any sensitive data from people. These actions would prevent any app like Kogan's from being able to access so much data today.
In 2015, we learned from journalists at The Guardian that Kogan had shared data from his app with Cambridge Analytica. It is against our policies for developers to share data without people's consent, so we immediately banned Kogan's app from our platform, and demanded that Kogan and Cambridge Analytica formally certify that they had deleted all improperly acquired data. They provided these certifications.
Last week, we learned from The Guardian, The New York Times and Channel 4 that Cambridge Analytica may not have deleted the data as they had certified. We immediately banned them from using any of our services. Cambridge Analytica claims they have already deleted the data and has agreed to a forensic audit by a firm we hired to confirm this. We're also working with regulators as they investigate what happened.
This was a breach of trust between Kogan, Cambridge Analytica and Facebook. But it was also a breach of trust between Facebook and the people who share their data with us and expect us to protect it. We need to fix that.
In this case, we already took the most important steps a few years ago in 2014 to prevent bad actors from accessing people's information in this way. But there's more we need to do and I'll outline those steps here:
First, we will investigate all apps that had access to large amounts of information before we changed our platform to dramatically reduce data access in 2014, and we will conduct a full audit of any app with suspicious activity. We will ban any developer from our platform that does not agree to a thorough audit. And if we find developers that misused personally identifiable information, we will ban them and tell everyone affected by those apps. That includes people whose data Kogan misused here as well.
Second, we will restrict developers' data access even further to prevent other kinds of abuse. For example, we will remove developers' access to your data if you haven't used their app in 3 months. We will reduce the data you give an app when you sign in -- to only your name, profile photo, and email address. We'll require developers to not only get approval but also sign a contract in order to ask anyone for access to their posts or other private data. And we'll have more changes to share in the next few days.
Third, we want to make sure you understand which apps you've allowed to access your data. In the next month, we will show everyone a tool at the top of your News Feed with the apps you've used and an easy way to revoke those apps' permissions to your data. We already have a tool to do this in your privacy settings, and now we will put this tool at the top of your News Feed to make sure everyone sees it.
Beyond the steps we had already taken in 2014, I believe these are the next steps we must take to continue to secure our platform.
I started Facebook, and at the end of the day I'm responsible for what happens on our platform. I'm serious about doing what it takes to protect our community. While this specific issue involving Cambridge Analytica should no longer happen with new apps today, that doesn't change what happened in the past. We will learn from this experience to secure our platform further and make our community safer for everyone going forward.
I want to thank all of you who continue to believe in our mission and work to build this community together. I know it takes longer to fix all these issues than we'd like, but I promise you we'll work through this and build a better service over the long term.
Alexandru Botu
Alexandru Botu  Dar daca si in alte parti si chiar si in Romania s-a procedat similar la alegerile sefului de la Cotroceni? Adica am fi fost manipulati individ cu individ si asa au obtinut unii cvasimajoritate si la parlamentare? Pai merita CA toti banii, daca sunt in stare sa afle si sa constientizeze optiunile fiecaruia. Imediat ma duce gandul la cat se cheltuieste inutil cu organizarea alegerilor, in loc sa se dea cam 10% la CA pentru a afla optiunea alegatorilor, fara sa-i deranjeze cu ceva, cu deplasarea la centrele de votare, cu memorarea candidatilor etc.Ei s-au prins ca optiunile alegatorilor nu au legatura cu logica, ci cu subconstientul.
Eduard Virgiliu
Eduard Virgiliu La noi e altfel, SRI falsifica alegerile si facebook-ul te convinge ca e normal ca cel care a fost pus de SRI sa castige ca "toata lumea" de pe facebook tine cu el.
Eduard Virgiliu
Eduard Virgiliu E la fel cum DNA pune presa pe cineva si dupa aia ti se pare normal sa fie arestat deoarece ai aflat din presa ca e corupt si nu te mai intereseaza daca chiar exista probe impotriva persoanei respective.

Niciun comentariu: