Archive pour novembre 2013

Quelle expérience de télévision pour demain ? Part 4 et fin.

Vendredi 8 novembre 2013

L’expérience Media de demain.


Nous avons vu dans la première partie de cet article comment la notion de chaîne doit évoluer en un service applicatif qui propose une expérience d’usage sociale et conversationnelle autour du contenu. Dans la deuxième, comment la maitrise des data est primordiale pour y arriver. Et dans la troisième, comment les technologies liées à l’image, aux capteurs et aux implants ont un rôle à jouer. Nous allons dans cette quatrième imaginer l’expérience media de demain.

Si je parle ici de toutes ces technologies, ce n’est ni en technophile convaincu, ni en épouvantail voulant effrayer avec ce futur. C’est parce que ces technologies vont avoir une influence sur les contenus. On va s’en servir de plus en plus pour raconter des histoires, pour plonger le spectateur dans des expériences nouvelles.

Le media entertainment, lié aux images, va devenir pour l’homme un véhicule d’expériences sociales. Deux modalités devraient coexister et se mixer : une externe et une interne.

Le mode externe permettra une expérience pervasive. Une sorte de super transmedia qui sera collaboratif à l’extrême, dans un monde où le contenu est totalement immersif. Une expérience à vivre tout au long de sa journée, avec des objets connectés personnels et collectifs. Une expérience totale dont on a pu voir des prémices réussis via Lexis Numérique (In Memoriam et Alt Minds). Le mode interne fera la part belle aux capteurs haptiques notamment, mais aussi à des capteurs implantés dans le corps des spectateurs. L’expérience permettra de ressentir dans son corps, (et même de « voir » dans sa tête) les émotions et les images.

Projetons-nous :

nous sommes en 2027, Andrew Niccol vient de réaliser son nouveau film, Retour A Gattaca. Il a scanné en 3D ses acteurs, Amanda Seyfried et Justin Timberlake, a tourné dans des décors réels qui ont été transformés en décor de synthèse. On ne perçoit pas la différence entre ce qui a été tourné et ce qui a été synthétisé. Il a conçu et monté son film entièrement sur ordinateur, il y a rajeuni ses acteurs, leur a donné des émotions, et écrit son histoire, entièrement après coup, grâce à un logiciel qu’il vient de mettre au point.

Vous êtes chez vous, seul. Vous visionnez ce film sur votre écran mural de 4 mètres sur deux. Vous pouvez agir sur l’histoire avec une version simplifiée du logiciel de Niccol. C’est vous sur l’écran, vous avez remplacé le scan 3D d’un des acteurs par le vôtre. Ce n’est plus Amanda Seyfried ou Justin Timberlake, mais le ou la voisine du 8ème que vous avez scanné(e) sans qu’il ou elle ne s’en aperçoive, grâce à un hack ingénieux dans l’ascenseur. La scène de séduction ne se passe plus dans le salon futuriste imaginé par Niccol, mais dans le vôtre que vous avez substitué dans le logiciel. Vous avez éteint l’écran et utilisez maintenant l’implant dans votre cerveau, vous ressentez toutes les émotions de votre personnage, vous voyez le film à l’intérieur de votre tête. Vous le vivez.

Il est 23h. Vous êtes rentré(e) fatigué(e) du bureau, avec une collègue, le scénario du film est simplifié, votre rôle est magnifié, vous pouvez vivre une expérience passive mais riche dans un contexte rendu actif, un contexte qui intègre tous les évènements de votre journée. Vous ressentez non seulement physiquement les émotions du personnage, mais aussi celle de votre amie avec qui vous vivez maintenant le film de concert.

C’est déjà demain, vous vivez dans la réalité avec les pouvoirs que vous avez dans vos rêves !

Notes, quelques références intéressantes :

Littérature science fiction : le mouvement cyber punk ; Neal Stephenson, William Gibson, Bruce Sterling, Greg Egan ,…

Cinéma : Total Recall, Bladerunner, Existenz, Strange days,…

Quelle expérience de télévision pour demain ? Part 3.

Jeudi 7 novembre 2013

Quelles technologies pour la TV de demain?


Nous avons vu dans la première partie de cet article comment la notion de chaîne doit évoluer vers un service applicatif qui propose une expérience d’usage sociale et conversationnelle autour du contenu. Et dans la deuxième, comment la maîtrise des data est primordiale pour y arriver. Nous allons passer en revue, dans cette troisième partie, les autres technologies sensibles pour l’avenir de la TV.

La technologie dans son ensemble est un vecteur de changement pour la Télévision, pas seulement le Big Data. Après l’échec relatif de la 3D, c’est la 4K qui pointe son nez, alors même que la télévision japonaise prône de passer directement au 8K ! La 3D, même si nombre de téléviseurs ont été vendus, n’a pas vraiment pris et le nombre de programmes tournés en 3D baisse assez vite même pour le cinéma !

Alors 4K ou 8K demain ? Je parierais plutôt pour la 4K, d’abord parce qu’elle est plus simple à mettre en œuvre dans un avenir proche. Téléviseurs, codecs, caméras professionnelles et même grand public, post production, tout est prêt ou presque. Le principal goulet d’étranglement ce sont les tuyaux. Il faudra plus de débit, des codecs encore plus efficients, et une infrastructure plus performante.

Selon Marissa Meyer, CEO de Yahoo, le web sera 100% mobile en 2020, les fréquences vont devenir plus que jamais primordiales. Le 4K c’est une image 4 fois plus définie que la HD, on se rapproche vraiment de la réalité. La pub piège de LG, où l’on fait croire que l’écran est une fenêtre ouverte sur la « fin du monde » en est la meilleure illustration. La différence entre le 4K et la 8K n’est vraiment visible que quand vous êtes à 10 cm de l’écran : en 4K vous voyez les pixels, en 8K non. Mais qui colle son nez sur l’écran, surtout quand il mesure plus d’un mètre cinquante de diagonale ?

Cette différence minime me fait dire que c’est le 4K qui va s’imposer et sûrement de façon durable, à moins que les marketers ne trouvent une idée de génie pour nous faire avaler une nouvelle couleuvre.

Après le 4K, une autre technologie devrait révolutionner notre manière de consommer le grand écran : en le faisant disparaître, paradoxalement, grâce aux nanoparticules. Dans les laboratoires de recherche, on sait déjà élaborer une peinture composée de nanoparticules. Il suffit de l’étendre sur le mur pour en faire un écran aussi grand que l’on veut. Les architectes l’intégreront directement dans les murs de nos maisons !

Par ailleurs, on ne parle souvent que de l’image, mais le son est très important, c’est le facteur d’immersion principal, et cela peut rester, dans le futur, l’avantage de la salle de cinéma. Il sera compliqué et cher d’avoir chez soi un son en 22.1 comme le propose la NHK avec son système 8K !

Le cinéma devrait lui aussi évoluer sûrement en 8K voire 16K et donc avec un son totalement immersif.

Mais je pense que la programmation va aussi évoluer. Les séries vont faire leurs apparitions dans les salles de cinéma. Je parierais pour des séances de séries en « binge viewing » pour bientôt. Ce sera d’abord des programmations évènements, comme « la nuit de la saison 3 d’Homeland », par exemple. On devrait aussi voir des salles plus petites, d’une quinzaine de places, avec un bar, des canapés, des fauteuils plus confortables, et on louera cette salle avec un groupe d’amis pour voir un film, comme à la maison, mais avec une qualité d’image et de son optimale, tout en faisant la fête. Les toutes nouvelles salles hyperluxueuses créées tout récemment par Luc Besson en sont un premier aperçu.

Le cinéma va peut être évoluer aussi par rapport au degré d’attention qu’il demande. Beaucoup de jeunes aujourd’hui ont tellement l’habitude de faire 5 choses à la fois, qu’il leur est très difficile de se concentrer sur une seul chose, un film, pendant 90 minutes. Je ne serai pas étonné que l’on voie apparaître, sous peu, des films en forme de mini série de 6 X 15 minutes, et des séances organisées avec des pauses aménagées pour twitter, avoir une conversation sur « Whatsapp », regarder un clip sur YouTube sur son portable ou boire un soda.

L’homme post ATAWAD, comme je l’ai décrit plus haut, veut être maître de ses choix. La technologie lui vend cette illusion. La technologie ce n’est bien sûr ni bien ni mal, elle sait renoncer au manichéisme, et nous offrir souvent le meilleur sans nous préserver du pire, ou de l’effrayant tout au moins. Les objets connectés sont à nos portes et vont remplir très prochainement notre quotidien. En premier, les vêtements intelligents et l’iWatch qui promettent de nous connecter 24/24, 7/7 à l’internet.  L’iWatch collectera toutes nos données de vie, de jour comme de nuit, de notre pouls à notre cycle de sommeil. Gageons qu’on pourra prochainement enregistrer nos rêves pour nous les repasser dans la journée !

L’iWatch sera peut-être un événement majeur dans l’histoire de l’homme, elle va faire de nous officiellement un objet connecté ! Ce sera alors l’avènement de « Machine is US ».

Ce « Machine is US » est aussi à l’œuvre dans les Google Glass. L’homme est ainsi non seulement connecté à internet en permanence, mais devient aussi un homme augmenté. Les Google Glass, à l’esthétique pour le moment sommaire, devraient rapidement être remplacées par des lentilles avec des fonctions identiques, mais invisibles ou presque. Ces technologies ne laissent pas de poser des questions sur la liberté individuelle et collective. Mais elles vont aussi ouvrir le champ aux implants de confort : après la chirurgie esthétique, ses poitrines avantageuses ou pas, on verra apparaître des hanches, des genoux, des jambes entières de synthèse. Mais ces implants ne vont pas rester uniquement dans le corps, ils vont gagner en intelligence et pénétrer le cerveau. D’abord bien sûr pour aider les aveugles à voir et les paralysés à marcher. Mais très vite, ils vont avoir comme fonction d’augmenter l’homme, sa mémoire, sa résistance à la souffrance, sa vision,… Le danger pour l’homme sera de pouvoir contrôler la machine, que celle-ci lui échappe. Que le « Machine is US » se transforme en « Machine is USing us » !

Que va devenir l’expérience media, dans un monde où nous serons autant connecté ? C’est l’objet de la partie 4.

Quelle expérience de télévision pour demain ? Part 2.

Mercredi 6 novembre 2013

Deuxième partie : la maitrise des data.


Nous avons vu, dans la première partie de cet article, comment la notion de chaîne doit évoluer vers un service applicatif qui propose une expérience d’usage sociale et conversationnelle autour du contenu. Pour y parvenir, un prérequis, objet de cette 2ème partie : la maîtrise des data.

Pour inventer la TV de demain, la connaissance de la technologie est critique, l’importance de la DATA primordiale.

Le vieil adage : « Content is King » a été remplacé par « Experience of Content is King, all screens are Queen and context is God ».

Penchons nous un peu, sur la définition du mot contexte.

Contexte, nom masculin,

Sens 1 : ensemble des éléments d’un texte qui accompagne un mot (et par extension un contenu) et qui apporte un éclairage sur le sens de celui ci.

Sens 2 : circonstances qui entourent un fait.

La contextualisation doit tirer partie des deux sens du mot. L’enrichissement d’un contenu se fait via les metadata qui renseignent celui-ci. Mais il est important pour cela de structurer ces données. Certaines technologies et techniques le permettent : tout d’abord, la sémantique et ses classifications ontologiques, le Linked Open Data qui permet de lier et d’enrichir un contenu avec des informations existant déjà sur le web, et enfin l’indexation, qu’elle soit faite par les auteurs et/ou producteurs du contenu ou bien qu’elle soit contributive et donc faite par les utilisateurs eux-mêmes.

Pour permettre une recommandation et une personnalisation optimale, il est nécessaire de bien renseigner les contenus avec le plus de granularité possible à l’intérieur même du contenu.

On peut distinguer dans une première approche simplifiée trois classifications nécessaires pour renseigner les contenus, trois ontologies :

- l’ontologie des programmes (type, genre, thèmes, histoire (de quoi cela parle, séquence par séquence par ex.), réalisateur, casting, etc.),

- celle des usages (sur quel terminal je regarde, à quel heure, seul, accompagné, après ou avant quel autre type de contenu, etc..),

- l’ontologie des processus (conception, écriture, tournage, postproduction, diffusion, collaboration, notion de rôle, contribution, amateur, pro,…).

Ces trois ontologies sont bien sûr complémentaires, et elles interagissent via des algorithmes et des règles définies. Cette classification doit être « accessible » en lecture et en écriture tout au long de la chaîne – notamment de distribution – de la conception, en passant par la gestion sémantique des médias, à l’utilisateur final, forcément contributeur en plusieurs points de la chaîne.

Le big data ne pourra être vraiment facteur d’amélioration de l’expérience client que si l’on comprend la structure de ces data. Ce sont les meta-data, les informations sur les données, qui permettent de les structurer. C’est un niveau logique supérieur aux data. Quand il y aura trop de meta-data, il faudra les structurer à leur tour en meta-metadata. On peut imaginer que cela adviendra quand l’homme sera connecté en permanence à internet, quand l’homme sera devenu lui même un objet connecté. On sera alors dans l’ère du « Machine is US ». Puis il y aura tellement plus de machines intelligentes que d’hommes, tellement de machines plus intelligentes que les hommes qu’un niveau logique supplémentaire sera nécessaire, un nouveau niveau logique que les hommes (ou les machines !) créeront : les meta-metametadata. Ce sera alors le temps du « Machine is USing us ». Un moment à la fois passionnant… et effrayant pour l’humanité !

Mais avant d’en arriver là, nous allons nous pencher, dans la troisième partie, sur les autres technologies qui peuvent influer sur l’avenir de la TV.

Quelle expérience de télévision pour demain ? Part 1.

Mardi 5 novembre 2013

L’IDATE m’a invité dernièrement à présenter, à l’occasion d’un de leurs think tanks, ma vision sur les usages liés à la télévision linéaire et non linéaire. Voici la retranscription de  l’essentiel de cette intervention qui portait sur l’évolution de la consommation des contenus, à 10 ou 15 ans, voire 25 ou 30. Ce texte est découpé en 4 parties. En voici la première autour de l’avenir de la notion de « chaîne » de TV.

Je me suis d’abord posé brièvement la question de ce qu’est une chaîne de TV aujourd’hui et de  son devenir. Je me suis notamment inspiré pour cela de l’article d’Alex Holub, le CEO et fondateur de Vidora : 6 predictions about TV’s future in a post-Chromecast world. Le mobile et la tablette se développent à vitesse grand V, leurs ventes sont largement supérieures à celles des TV qui déclinent partout dans le monde. Or les tablettes et les mobiles sont des terminaux intelligents (on dit bien smartphone, non ?).

S’ils sont intelligents, alors le « poste » de télévision n’a plus besoin de l’être. Il devient seulement un écran connecté, plus grand que les autres, certes, mais un écran parmi les autres. L’avenir des « smart » TV, de la TV connectée et d’HBBTV (L’Hybrid Broadcast Broadband TV) semble bien compromis.

Les seconds écrans contrôlent de plus en plus, grâce à leur intelligence, la TV. L’applicatif via le second écran prend le pas sur la télécommande.

Alors que peut devenir la notion de « chaîne » de télévision ?

A mon sens un service, un service applicatif, orienté expérience d’usage. Cette expérience proposée aidera à choisir le programme qui me plaît, le programme que j’ai envie de regarder maintenant (qu’il soit live, en VOD, SVOD, ou catch-up, ou bien que ce soit un contenu personnel ou un jeu,…). Personnalisation, recommandation, contextualisation seront au centre de cette expérience.

Les marques vont pouvoir mieux tirer leur épingle du jeu qu’aujourd’hui grâce à ces services applicatifs : chaîne de marque (permanente ou éphémère, événementielle, …), brand content, publicité contextualisée et ciblée. On peut voir là les prémices d’un business model, finalement assez classique, mais que les marques renouvelleraient en créant des lieux de conversations autour de l’expérience d’usage de leurs produits.

La concurrence va être forte, très forte, entre les TV traditionnelles – qui devront nécessairement s’adapter à ces nouveaux usages – et les nouveaux entrants, les Google, Netflix, HULU, AMAZON … Un nouveau métier va prendre son essor : les agrégateurs de contenus vidéo sur IP. Leur mission ? Pouvoir offrir un large choix de contenus pour satisfaire le grand public ET les niches, faire du média de masse ET du média de précision. Offrir la meilleure qualité d’expérience et de service au meilleur coût. Non seulement optimiser la recommandation, mais aussi la distribution pour ne pas encombrer les réseaux. Prédire quel contenu sera un contenu de masse, lequel un contenu de précision et le distribuer de la façon la plus adéquate (en multicast ou en unicast, en avance ou à la demande, …).

Une catégorie d’utilisateurs est déjà prête pour cette TV de demain, la génération C (C comme Connectée). C’est chez cette génération que l’on observe l’augmentation la plus forte de consommation de contenus sur le web. C’est la génération déjà post ATAWAD. A l’AnyTime, AnyWhere, AnyDevice, ils ont ajouté le AnyBodyWith (avec tous mes amis) et le AnyChoice (l’hyper-choix). Leur expérience est principalement délinéarisée, en mode synchrone et/ou asynchrone, ils appellent la personnalisation, la recommandation et prônent la culture du partage.

Pour satisfaire ce jeune public, la TV doit devenir un média d’événements live (sport, TV-réalité…) et de contenus délinéarisés. Comment préparer ce changement de paradigme : conjuguer le media de masse et le media de précision ?

Une réponse immédiate consiste à injecter, et ce dès maintenant, du social dans la catch-up, pour augmenter la conversation sociale autour de la télévision de rattrapage et ainsi contribuer à rendre l’expérience au moins aussi palpitante que l’expérience autour du live.

Le contenu doit devenir intrinsèquement et nativement social et conversationnel.

La chaîne, service applicatif orienté expérience d’usage, doit (re)devenir un lieu de rendez-vous, un espace de conversation, en mode synchrone ET asynchrone. Il s’agit d’offrir au spectateur une destination, un lieu où il peut accéder à du contenu mais aussi et surtout un espace au sein duquel il aura plaisir à partager autour de ce contenu, via des conversations sociales avec ses amis et des experts.. Comme l’explique très bien l’excellent post de Mark Suster, les chaînes doivent apprendre à mieux utiliser Facebook et YouTube pour ramener les utilisateurs vers leur contenu sur leur espace de marque et valoriser ainsi leur data d’usage.

Mais pour cela, elles doivent apprendre à mieux connaître leurs spectateurs, leurs usages et leurs habitudes, en sachant capter et dompter les data. C’est ce que nous verrons dans la partie 2.