En direct avec LeMarson

Vos rendez-vous en direct avec LeMarson
pour ne rien rater de l'actualité et des grandes thématiques des tendances informatiques.
Non, Cobol n'est pas un "gros mot"…
Webinaire

Non, Cobol n'est pas un "gros mot"…

La question reste posée. Que faire des énormes silos de codes Cobol, qui se sont accumulés dans les entreprises depuis 1970. On peut en "basculer" une partie dans un environnement plus favorable, Unix ou Linux, avec les utilitaires transactionnels adéquats. On peut aussi réécrire les applications avec un langage plus récent : Java, C#, Ceylon…et les API adaptées. Tout dépendra de la volonté du management de prendre, ou non, des risques. Il est cependant indispensable et c'est le but de notre webinaire, d'essayer de comprendre la "substantifique moelle" de l'écosystème Cobol, ce qu'est un langage impératif, histoire d'être mieux armé quand le moment de passer à l'acte sera venu Quant à qualifier Cobol de "vieux" langage, c'est aussi idiot que de dire que les langages objet sont plus modernes. La preuve. Cobol est né chez Grace Hopper en 1959, mais n'a été vraiment utilisé qu'à partir de 1964, avec l'arrivée de la série 360 d'IBM, alors que Smalltalk, considéré comme le premier langage objet de l'histoire, remonte à 1966, chez Xerox. En fait, ils sont contemporains. Ce qui n'enlève rien au problème posé et au choix qui reste à faire.
L'autisme au service du TI
Webinaire

L'autisme au service du TI

Notre webinaire n'a pas pour ambition d'apporter un éclairage nouveau sur l'autisme, simplement de rappeler à quel point notre cerveau est une machine complexe et qu'il ne faut pas classer les autistes par rapport aux personnes "normales", selon la canadienne Michelle Dawson, mais en fonction de critères différents, susceptibles de mettre en valeur leurs "hypercompétences", dont le moins que l'on puisse dire est qu'elles sont fascinantes. Dans notre domaine, les autistes ont parfois des capacités à traiter des gros volumes de données, sans méthodes particulières, car elles sont innées, avec un sens de la "vérité" qu’IBM, par exemple, exploite pour les insérer dans des groupes de surveillance ou de tests d'applications. De la même manière qu'un "bipède" normal voit tout de suite la différence entre un rouge et un bleu, parce qu'il est programmé pour cela, grâce à des bâtonnets au fond de l’œil, les autistes sont parfois capables d'aborder de longues séquences de chiffres et d'en faire ressortir instantanément ceux qui sont supérieurs à la moyenne, comme le ferait en moins bien, un tableur Excel. Et les autistes d'ajouter qu'ils ne calculent rien, mais qu'ils "voient" les résultats… Notre webinaire a été programmé une première fois en début d’année, mais la réticence de certains des abonnées LeMarson, nous a amené à prendre un peu de recul… Il est vrai que le sujet est très délicat, qui nous fait toucher du bois à quel point nous ne comprenons rien à la "neuromorphologie" de l'être humain…
Le cellulaire privé contre Wi-Fi
Webinaire

Le cellulaire privé contre Wi-Fi

Bien qu'il continue d'évoluer, Wi-Fi présente des inconvénients qu'il est difficile d'ignorer : faible portée des routeurs, efficacité spectrale réduite, interopérabilité contestable, compatibilité des équipements… peut-être aussi sa faiblesse sécuritaire. L'idée est donc de lui substituer, dans des environnements industriels principalement, des implémentations privées de réseaux cellulaires 4 ou 5G, avec partage de fréquences dans un espace géographique important, mais délimité. L'exemple du CBRS américain, qui fait un "malheur" outre-Atlantique est là pour nous prouver que techniquement le sujet est maîtrisé, mais que surtout on peut organiser l'usage des fréquences pour des besoins bien précis, en maintenant la priorité à d'autres. A ceux "qui étaient là avant… ". Ce ne sera pas évident, mais le cellulaire privé, malgré des prix élevés et des contraintes fortes d'installation, est une solution que l'on ne peut plus ignorer. L'exemple de projets réussis dans quelques grands comptes, contribuera à rassurer les plus hésitants.
WebAssembly et LLVM, pour de meilleures performances Web
Webinaire

WebAssembly et LLVM, pour de meilleures performances Web

Les architectes sont plus que jamais devant la nécessité d'améliorer les performances de leurs applications Web, de plus en plus complexes et diversifiées. Parmi les possibilités qu'il leur faut regarder de près, figurent WebAssembly d'origine W3C et LLVM, les deux ayant en commun une compilation intermédiaire qui produit un code plus performant, différent dans les deux cas, voire plus proche des machines sous-jacentes. Alors qu'il existe déjà un ASM.js que certains qualifient d'assembleur JavaScript, bien qu'il s'agisse d'une restructuration de l'arbre syntaxique AST, WebAssembly est une sorte de formatage de bas niveau du code issu d'une compilation C ou C++ (entre autres), le code s'exécutant dans un "run time" dédié. A vrai dire WebAssembly est structurellement très proche de JavaScript, avec lequel il interagit. LLVM, à l’inverse, produit un bitcode, le projet ayant pour finalité de fabriquer des compilateurs qui vont le produire. Sur une sorte d'échelle de Richter des performances, WebAssembly et LLVM se situent à 80 % environ de celles d'une application native. Dans ce webinaire, nous allons nous attacher à définir ce que sont exactement ces technologies et à en définir les contextes, pour lesquels elles seront les mieux adaptées. Une longue pratique du codage ne sera pas nécessaire pour en apprécier le contenu.
Les bases de données distribuées
Webinaire

Les bases de données distribuées

Nous avons connu quatre générations de bases de données : hiérarchiques (DL1…), réseaux (IDMS…), relationnelles (Oracle…), NoSQL et maintenant distribuées. Mais cette fois, le challenge est très relevé. Il nous faut maintenir la continuité de service et la disponibilité des données, évoluer matériellement sans heurts en fonction des besoins, garantir plusieurs formes de consistance (forte, faible et éventuelle), assurer le meilleur niveau de protection, même si la référence ACID en l'état n'est plus adaptée. Il nous faut gérer le temps, assurer la réplication et la duplication des données sensibles, faire la distinction entre les modes actif-passif et actif-actif. Le tout sous couvert de 12 lois que nous vous proposerons en ligne directe du modèle DATE. Restera le problème du langage de requête. Les usagers étant habitués à SQL, ils accueilleront comme il se doit (et soulagement) le tout nouveau NewSQL. C'est de cet ensemble de technologies dont il est question dans notre webinaire. Une bonne piqûre de rappel n'étant jamais à négliger… par ces temps de pandémie.
Les algorithmes de chiffrement, ces inconnus
Webinaire

Les algorithmes de chiffrement, ces inconnus

Mieux vaut tard que jamais. Nous "faisons" du chiffrement, en gros depuis la fin des années 70, sans toujours nous interroger sur la nature profonde des algorithmes, il est vrai en forte mutation. Nous avons connu les chiffrements symétrique (DES…), asymétrique (RSA…), mixte (PGP…). Il faut nous intéresser maintenant au chiffrement homomorphe, dont IBM nous rassure sur sa capacité à le maîtriser, au chiffrement quantique et aux nouveaux venus, elliptiques et autres. Il est, bien entendu, inutile de chercher à comprendre la mécanique bien huilée des mathématiques sous-jacentes. Cela ne servirait pas à grand-chose. Il nous suffira de rappeler ce qu'ils font, quelles sont leurs principales caractéristiques en termes de vitesse d'exécution et de sécurité, les API disponibles et surtout les domaines pour lesquels nous avons encore un choix à effectuer. Le chiffrement est effectivement partout : authentification, applications distribuées DApps, gestion et fédération des identités, consensus dans la Blockchain, stockage, NFT et DeFi, etc. Ce tour d’horizon a pour objectif de faire le point sans "langue de bois" sur l’écosystème, en séparant ce qui est crédible du pur événementiel, qui ne l'est pas. Pour le moins, acquérir une terminologie quelque peu abscons, à laquelle tôt ou tard, nous serons confrontés.
Vers l'authentification invisible et permanente
Webinaire

Vers l'authentification invisible et permanente

L'authentification des usagers est devenue un problème quasi impossible à résoudre. Compte tenu de notre absence d'imagination et de rigueur, les mots de passe ne protègent plus que ceux … qui y croient encore. Ce qui ne veut pas dire qu'il ne faut pas se protéger. Bien au contraire, tant notre environnement est devenu dangereux. Heureusement, nous disposons de technologies telles que le chiffrement, la biométrie, les hash et les challenge, etc, qui individuellement ne sont peut-être pas satisfaisants, ni suffisants, mais qui associés peuvent nous garantir un niveau de sécurité élevé. Le fin du fin sera lorsque ces protections deviendront invisibles. A partir du moment où nous nous servirons des mêmes machines, pour accéder au même panel d'applications et que nous nous serons authentifiés une première fois, le processus de contrôle sera assuré de manière transparente et continue. Comme il se doit avec un gros apport d'Intelligence Artificielle, chargée de décrypter nos comportements et de déceler les écarts par rapport à des modèles types. C'est cet aspect de la technologie que nous vous proposons d'analyser. Sans toutefois nous faire trop d'illusions sur sa maturité. Comme toujours, il faudra nous armer d'un peu de patience. Profitons-en pour "mettre la table"…
Les nouvelles protections périmétriques du TI
Webinaire

Les nouvelles protections périmétriques du TI

Globalement, les protections périmétriques, les "appliances" comme les désignent les américains, s'appliquent à trois zones du TI : la DMZ, qui protège les usagers internes des nuisances externes, le TI lui-même et ses ressources, avec ses serveurs Web, ses serveurs de fichiers, ses applications et annuaires, etc et les utilisateurs externes, qui doivent accéder aux fonctionnalités du système d'information. Pour assurer ces protections, les équipements ont profondément changé. Les pares-feux sont passés à une nouvelle génération, dite NGFW, des pares-feux que cependant on continue de mal comprendre, les "proxies" et "reverse proxies", les IDPS qui recouvrent les capacités des IDS et IPS, les VPN bien évidemment, qui ont fortement progressé grâce au covid et à l'éloignement des utilisateurs, les annuaires, les services NAC, NBA, etc. Dans ce webinaire, nous positionnerons de manière concrète toutes ces technologies, que nous resituerons en termes d'efficacité. C'est l'un des gros chantiers que les équipes vont devoir affronter. Tout est à revoir ou presque…
Kubernetes, le Windows des conteneurs
Webinaire

Kubernetes, le Windows des conteneurs

Dans le monde du TI, il ne fait pas bon d'être une petite structure et de véhiculer une grande idée. C'est ce qui est arrivé à Docker, compagnie lilliputienne par rapport à Google, mais à qui est revenu le mérite de remettre au goût du jour le principe des conteneurs, tels que les avaient imaginés Sun. L'ennui, c'est que la structure Docker n'a pas suivi l'engouement suscité par sa "trouvaille" et malgré un succès planétaire, Docker n'a pas su s'adapter. La pierre d'achoppement a été l'administration des images conteneurs, Docker proposant Swarm, alors qu’un "nouveau venu", Googgle, suggérait Kubernetes. A priori, Google n'avait aucune chance de refaire le terrain perdu, si ce n'est l'incontestable qualité de son outil et surtout le support tout acquis de la communauté CNCF, dont Google avait pris soin de se retirer, après lui avoir confié les rênes de Kubernetes. Face à cet écosystème, Docker s'est entêté dans des certitudes obsolètes et a fini par, sinon disparaître, du moins péricliter. Aujourd’hui Kubernetes est un ensemble de services qui assurent les fonctions de supervision des conteneurs, implantés aussi bien dans les serveurs que dans les nœuds d'un cluster. Les serveurs Kubernetes servent à déployer, maintenir et mettre à l'échelle les applications portées par les conteneurs, les outils Kubernetes étant eux-mêmes empaquetés de cette manière. Notre webinaire fait ce constat : au-delà du fait que Kubernetes, version CNCF, mais il ne faut pas être dupe, n'a plus véritablement de concurrent, sa position monopolistique n'est bonne ni pour les usagers, ni pour les adversaires de Google, à commencer par Microsoft... qui aurait bien fait de racheter Docker quand il en était temps... A nous de bien discerner les risques que nous prenons avec un "tout K8s", car demain il sera très difficile, voire impossible, de revenir en arrière.
La programmation du comportement des réseaux
Webinaire

La programmation du comportement des réseaux

L'idée d'IBN ("Intent Based Neteworking") consiste à considérer les ressources d'un réseau : routeurs, switchs, frontaux, etc, comme des objets dont le comportement peut être programmé via un langage spécialisé. Une architecture réseau programmée de cette manière intervient à 4 niveaux : la traduction des recommandations en contraintes, le "quoi" en "comment", l'implémentation automatique de la stratégie, la détection en temps réel d'évènements qu'elle fait remonter et la surveillance courante du réseau pour s'assurer qu'il ne dérive pas. Il existe des langages dédiés à cette surveillance, tel NEMO de l'IETF qui s'applique à la NBI, la "North-Bound Interface", autrement dit les aux liens entre les outils d'administration de haut niveau et les équipements, laissant l'interfaçage avec les les SBI ("South-Bound Interface") aux contrôleurs SDN. Il ne faut pas s'y tromper. Il s'agit là d'une voie très moderne que les architectes vont emprunter, parfaitement en phase avec le découpage entre ressources "on premise" et Cloud. Les responsables réseaux auraient tort de ne pas s'y intéresser...
Abonnez-vous
  • Suivez LeMarson en direct
  • Accédez à des centaines de dossiers et d'articles
  • Visionnez des dizaines d'heures de formations vidéos
  • Téléchargez le Livre des tendances de l'année
Annuel

$590.00