Innholdspersonalisering gir meg det jeg har lyst på. Men det limer meg kanskje også fast der jeg er idag?
Gi folk det de har lyst på
Personalisering og big data har vært sentrale tema i mediebransjen de siste par årene. Mengden innhold tårner seg opp, og selvfølgelig vil man gjerne at folk som kommer forbi skal få med seg så mye som mulig. Klarer man å tilby noe de besøkende sannsynligvis vil like, er sjansen større for at de slår til.
The Amazon Way
Pionéren på området big data-baserte anbefalinger, er nettbokhandelen Amazon. De har i årevis loggført hvilke bøker hvem kjøper, og så tilbyr de kjøpere av bok X å også kjøpe bok Y; «folk som kjøpte denne likte også denne». Og vi boklesere, vi blir glade for at noen treffer smaken vår og slår til.
Jeg har funnet mange fine bøker på denne måten. Spesielt etter at Amazon la til muligheten for å huke av at «denne boken var en gave, jeg er ikke egentlig særskilt opptatt av ungpiker og vampyrer».
Netflix
På SXSW 2014 fortalte Todd Yellin, VP of Product Innovation i Netflix, at 75% av konsumet på Netflix var anbefalings-basert, og at dette var noe de bevisst jobbet for. Og antagelig er det lurt å styre publikum fra søkedrevet konsum og over mot maskinens anbefalinger når man har et bredt utvalg innhold, men ikke nødvendigvis de titlene folk ville søkt etter. Kanhende konsumerer vi brukere også mer, om vi får et ganske godt forslag vi passivt kan akseptere, fremfor å selv aktivt måtte lete frem ting.
Men det er da kjempefint, eller…?
Jeg har pleid å tenke at dette med å bruke mine sjelefrenders valg og snedige algoritmer til å gi meg noe jeg sannsynligvis vil ha (og kanskje ikke visste jeg ville ha) er bra og horisontutvidende. Men hva hvis det bare utvider horisonten på det nivået jeg er nå?
Mandag var jeg på en kunnskapsutvekslingsaffære i regi av den europeiske kringkastingsunionen og havnet i prat med Agnes Schneeberger, en TV-analytiker fra the European Audiovisual Observatory. Hun hadde et annet perspektiv på det: Agnes mente at når modellen var basert på å gi deg ting som liknet det du allerede visste om og likte, kom du aldri videre. Du ville for alltid bli værende på samme nivå.
The Road Less Travelled
Hun mente at en av de gode tingene ved tradisjonell lineær TV-seing, var det hun kalte accidental learning. Det å utilsiktet lære noe man ikke visste, og som man ikke ville snublet over om man kun konsumerte innhold som var beslektet med det du allerede konsumerte.
Dermed vil man ikke så lett utvikle smaken videre, oppdage nye ting og sjangre, modnes, men for alltid sendes rundt og rundt i en stor sirkel, der alle forblir på samme nivå som de startet.
Déjà Vu All Over Again
På et vis ser vi den såkalte filterboblen i arbeid – det at maskinalgoritmer tilbyr oss innhold som likner det vi allerede har konsumert. Men tidligere har jeg bare tenkt på filterboblen i tre dimensjoner om man kan si det slik – at jeg vil ha en tendens til å møte innhold som bekrefter mitt eget virkelighetssyn. Denne samtalen brakte tidsdimensjonen inn også; at boblen også vil forsterke stadiet jeg er på.
Har dere noen tanker om hvordan man kunne unngått dette i maskinbaserte anbefalinger?
The Cost of Personalisation
Personalisation of content gives me what I want. But it might also glue me to where I am today.
Give the people what they want
Personalisation and big data have been central themes in the media business the last few years. The amount of available content is piling up, and – naturally – one wants the audience to catch as much as possible of it. If you can offer something they’ll probably like, they’ll be more likely to lap it up.
The Amazon Way
Online book dealer Amazon is the pioneer of big data-based recommendations. For years, they’ve meticulously logged what each and one of us buys, and then they’ve offered the buyer of book X to also pick up book Y; «People who bought this, also bought this». And we, the readers, we’re happy that someone understands our taste, and we buy.
I’ve come across several good reads this way. Especially after Amazon added the option of saying «This is a gift, personally I’m not that crazy about young girls and vampires».
Netflix
At SXSW 2014 Todd Yellin, VP of Product Innovation at Netflix, told us that 75% of Netflix use was recommendation based, and that this was something they consciously focused on. And it is probably a wise move to steer people away from search-based consumption and towards algorithmic recommendations if you have a broad selection of content, but not necessarily the titles people actively would have sought to find. Maybe we also consume more if we get a suggestion we passively can accept, rather than having to actively find it on our own.
But that sounds great, or…?
I’ve been tending to think that using the choices of my soulmates and clever algorithms to give me stuff I would probably want (and maybe didn’t know I wanted) is good, and expands my horizon. But what if it just expands the horizon at my current level?
This Monday I attended a knowledge exchange thing hosted by the European Broadcasting Union, and had a chat with Agnes Schneeberger, a TV analyst from the European Audiovisual Observatory. Her perspective was different: Agnes’ point of view, was that when the model was constructed around giving you things similar to what you already knew about and liked, you would never progress, but be stuck on your current level forever.
The Road Less Travelled
According to her, one of the good things with traditional, linear TV viewing, was what she called accidental learning. Unintentionally learning something you didn’t know, and which you wouldn’t have encountered, if you just consumed content related to what you already consumed.
Making it harder to develop your taste further, discover new things and genres, mature. Rather, you would forever be sent around in a large circle where everyone stays at their starting level.
Déjà Vu All Over Again
In a way, this is the so called Filter Bubble at work – machine algorithms offering us content similar to what we have consumed already. But previously, I’ve only been thinking about this bubble in three dimensions, so to speak, that I’ll have a tendency to encounter content confirming my own point of view. My chat with Agnes brought the time dimension into the picture; that the bubble will tend to reinforce the level I’m presently at.
Do you have any good solutions for avoiding this effect in algorithmic based recommendation systems?