Débrief du Rebuild by Microsoft

Le Rebuild Nantes 2017 a eu lieu le 27 avril.

Cet événement est organisé par les communautés Microsoft afin de promouvoir ses technologies.

Benoit, notre envoyé spécial a assisté à certaines des présentations, voici son retour sur l’événement :

  • Session d’introduction : présenté par le DSI France de Microsoft.

​​Session intéressante sur les changements (de mentalité en autre) ayant eu lieu au sein de MS, notamment depuis l’arrivée du nouveau boss. Microsoft s’est ouvert (avec notamment plus de participation au monde libre). Ils sont passés du « build » (je fais les applis dont j’ai besoin), au « buy or build » (je regarde s’il y a une solution dispo sur étagère chez mes partenaires, et si non, alors je fais le dev). Ils font du DevOps, et du continous delivery. Sur ce dernier point, l’avantage est l’adoption des outils par les utilisateurs : il est plus facile d’apprendre une ou deux petites fonctionnalités à intervalle régulier, plutôt que devoir apprendre 50 nouvelles features en une seule fois.

L’outil n’est plus considéré comme primordial, c’est l’utilisation qui doit primer. MS se positionne aussi sur le Machine Learning (connaitre le passé pour prédire l’avenir). ​

  • Typescript 2 : présenté par un toulousain d’origine. Une présentation de qualité donc.

Une des deux présentations techniques de mon programme du jour. Petit historique de JS, et un coup d’œil vers ce qui va arriver.

​Ce que je retiens, c’est la possibilité de « combler le gap » entre l’état de l’art sur les machines cibles du client, et l’état de l’art « théorique ». Avec un transpileur, on peut utiliser les dernières fonctionnalités et obtenir le code JS pour une version antérieure. Le code JS généré​ est parfois imbitable, mais la fonctionnalité est utilisable.
Seul regret : la session n’a duré que 45 minutes, alors qu’elle aurait pu durer 2h.​
Les slides sont dispo là : https://www.slideshare.net/sebastienpertus/future-of-java-script-web-version

  • Comment communiquer avec mes clients ?

Présentation de Skype for Business. Pas mal de choses qu’on utilise déjà. Présentation aussi des bots. Apparemment simple à mettre en place, il « suffit » d’alimenter une base de connaissances.

Ce qui m’a laissé​ le plus rêveur en terme de possibilité, c’est la connexion avec Hololens. Je suis convaincu que ce genre d’outils (tout comme les Google Glass) ouvriront des possibilités énormes en terme d’usages nouveaux. Le speaker a expliqué qu’il était possible de discuter depuis son poste avec un utilisateur d’Hololens, et plus que discuter, il peut voir ce que ce dernier voit (on ne partage pas un écran, mais la caméra de l’Hololens). Un cas d’utilisation est de pouvoir faire de l’assistance à distance : l’utilisateur de l’Hololens peut être guidé le support, à distance. Un plombier pourrait ainsi guider une personne qui a une fuite sans avoir à se déplacer.

  • J’utilise quoi pour collaborer ?

Présenté par un Canadien des plus enthousiasmant, et MVP Microsoft.

Il a expliqué d’entré qu’on ne sortirait pas de la session avec une réponse sur quoi choisir, mais plutôt avec des pistes à explorer, et des questions à se poser. Car à la question qui sert de titre de la session, la réponse est « ça dépend ». Il n’y a pas « un meilleur outil », mais il y a un meilleur outil pour un cas concret ». Pour expliquer ça, on peut prendre l’exemple d’un problème de prod : si c’est bloquant, le client va nous contacter par téléphone, mais s’il peut se débrouiller, il nous fera part du problème par mail. Le degré d’urgence étant différent, l’outil pour communiquer est aussi différent. Le nombre de personnes impliqué dans le partage est important aussi: on ne va pas utiliser le même outil pour s’adresser à une personne ou pour s’adresser à toute une entreprise.

Il a présenté différents outils MS, certains qu’on utilise comme Skype ou Sharepoint, et d’autres qu’on n’utilise pas comme Groupes, ou Teams. Par rapport aux outils, il précise qu’il faut les connaitre pour bien les utiliser, et être plus productif. Ça parait bête de le préciser, mais c’est la réalité. Et c’est d’autant plus vrai qu’on le vit chaque jour puisqu’on a un outil puissant comme Sharepoint, mais on n’est pas en mesure de l’utiliser à fond.

Autre point important, c’est l’adoption d’un outil par les utilisateurs. On peut avoir le meilleur outil, si les gens ne l’utilisent pas, ça ne sert à rien. Pour ça, il explique qu’il faut prendre le temps d’expliquer les avantages de l’outil pour les utilisateurs. Il a pris un exemple qu’il a rencontré : sur un nouveau projet, il a mis en place Teams, et a dit aux membres du projet que c’était disponible. Ils l’ont utilisé au début, fait 5-6 discutions avec l’outil, puis ont arrêté. Sur un autre projet, il a fait de même, mais en plus, il a pris le temps de présenter l’outil (avec un simple mail d’une dizaine de lignes !) et le résultat est que l’outil est utilisé.

Les slides étant dispo, il faut aller les consulter car il y a une mine de liens à compulser.
https://fr.slideshare.net/sergetremblay16/what-should-i-use-for-collaboration-team-sites-office-365-groups-yammer-other-sps-ottawa-2015

  • Les rapport dans SSMS

Seconde présentation technique de ma journée. Cette fois sur les reports présents dans SQL Server. Par défaut, SQL Server met à disposition des reports pour analyser la base : informations sur les index, sur la consommation mémoire, CPU, performance des requêtes, historique des modifications des schémas, … Ces reports par défaut ne sont pas sans défaut : « moche », pas de copier/coller (ce qui ennuyeux pour récupérer une requête).

Il est possible d’ajouter des reports existant. Ils ont montré le Performance Dashboard (je pense que c’est celui-là : https://www.microsoft.com/en-us/download/details.aspx?id=29063).

Et bien sûr, il est possible de faire notre propre report custom. Mais pour ça, nos amis du pole Data seront les plus à même de répondre aux questions.

Plein de choses intéressantes, et à creuser. Sans devenir « expert base de données » (ce n’est pas le but), c’est des outils qui peuvent nous aider à faire une première analyse.

  • Table ronde DSI : avec le DSI de Microsoft, et le Directeur Numérique de Nantes Métropole Habitat.

Une peu de redite avec la présentation du DSI MS du matin sur le Machine Learning, et une vision intéressante de l’innovation.Machine Learning : quelques exemples concrets du ML.

    • ​Les ascenseurs : les ascenseurs remontent beaucoup d’informations via leurs capteurs. L’historique des données permet d’identifier des schémas d’event (type, fréquence,…) qui indique qu’un appareil va tomber en panne, avec un certain degré de probabilité, dans les jours/semaines qui viennent. Le réparateur peut donc être pro-actif en prévoyant une maintenance avant la panne, et ne plus être réactif après une panne (avec peut être une ou plusieurs personnes bloquées dans l’ascenseur).
    • Le com​merce : en ayant des données sur les contrats passés (ont-ils été gagnés, perdu, pour quelles raisons,…), les commerciaux ont accès à un tableau de bord présentant leurs différentes affaires, et un taux de réussite/échec de chaque affaire. C’est un outil d’aide à la décision : faut-il faire l’effort sur un projet ayant 80% de réussite pour le sécuriser, ou faut-il mettre l’accent sur un projet n’ayant que 12% de réussite mais qui a un plus fort potentiel ?
    • Les ​R​H : le DSI MS a pris l’exemple d’un projet fait avec Accenture aux US pour client dont il a tu le nom. En se basant sur les données de leurs collaborateurs (le seul critère qu’il a donné est la présence sur les mails, le taux de réponse faite), la société client a pu mettre en place un outil de détection des démissions. Le taux de détection réussi est de 93%… Assez impressionnant, mais pas applicable en France avec la protection des données.

Po​​ur tout cela, l’important, c’est les data. Aujourd’hui, le stockage de données ne coute rien, alors il faut stocker autant de données que possible, et voir plus tard ce qu’il est possible d’en faire. L’autre point important est les algorithmes permet l’analyse des données. Si Microsoft propose quelques algo sur étagère, pour des besoins spécifique, il faut passer par un expert, un data scientist. Ce qui a mené à une réflexion sur l’emploi de chercheurs/scientifiques par les entreprises privées.

NMH a une vision plus « libre » que MS sur les données puisqu’ils ouvrent leurs data (au moins en partie) et gratuitement. C’est ce qui engendre l’innovation : les gens sont libres de les utiliser comme ils veulent. L’exemple étant la mise à disposition des arbres plantés dans leurs différents domaines. Des allergologues ont utiliser ces données là pour faire de la prévention des allergies.

L’innovation ne passe pas/plus par les outils ou la technique. C’est ne doit plus être une finalité. Cela doit être un moyen. L’innovation passe par les usages. Le Directeur N. de NMH a conseillé aux start-up de ne pas se focaliser sur les levés de fonds, mais plutôt sur les usages, et les usagers. S’ils ont des usagers, ou des usages innovants, les fonds arriveront derrière.

Voila le résumé d’une journée bien remplie!

Un grand merci à Benoit pour ce retour d’expérience 

Partager l'article sur
L'équipe A5sys

L'équipe A5sys

Ces articles pourraient vous plaire