De nombreuses pannes et divers dysfonctionnements ont été constatés par les utilisateurs du site de l'application Twitter et des applications tierces. «Nous savons que certaines parties de Twitter ne fonctionnent toujours pas pour certains d'entre vous. Nous corrigeons un problème avec nos serveurs pour que les choses reviennent bientôt à la normale», s’explique Twitter sur son réseau social même.
Selon le site Down Detector, qui recense les pannes déclarées par les internautes, les soucis ont débuté dans la nuit de vendredi à samedi, avec un pic entre 2 heures et 3 heures du matin. Une deuxième vague de pannes a été observée dans l’après-midi, autour de 15 heures. Et samedi soir, il semblerait que le problème technique ne soit toujours pas résolu, et que le nombre de bugs déclarés soit de nouveau en train d'augmenter.
D’autres éléments à corriger
Le réseau social a annoncé mercredi les travaux en cours afin de rendre plus éthiques les algorithmes de l’application. Cela permettra d’accorder plus de contrôle aux utilisateurs. Twitter souhaite améliorer ses algorithmes de « machine learning », c’est-à-dire une technique d’intelligence artificielle (IA) qui permet aux ordinateurs d’«apprendre» automatiquement en se basant sur des données.
La société californienne parvient, par le biais de systèmes d’IA, à déduire selon la navigation d’un utilisateur s’il préfère par exemple des vidéos de chiens ou de chats. Cependant, la société admet que lorsque «Twitter utilise le « machine learning », cela peut avoir des conséquences pour des centaines de millions de tweets par jour, et parfois un système peut se comporter différemment de l’intention selon laquelle il a été conçu».
Ces derniers temps, les algorithmes des réseaux sociaux, tels que Twitter, Facebook et d’autres sont accusés de laisser passer trop facilement sur les comptes de milliards d’utilisateurs des contenus clivants qui diffusent des « fake news » ou des messages de haine.
Pour rappel, en début d’année, Twitter était sous le feu des critiques à cause de son système de recadrage automatique d’image.
En effet, si deux visages sont présents, alors l’algorithme choisira de mettre en avant l’individu à la peau plus claire. «Nous avons mené des tests sur les biais avant de livrer ce modèle et nous n’avons trouvé aucune preuve de biais raciste ou de genre lors de nos tests, mais il est clair que nous devons pousser les analyses», avait alors expliqué Liz Kelley, porte-parole de Twitter. Le responsable du design, Dantley Davis, avait également reconnu : «C’est 100% de notre faute. Personne ne devrait dire le contraire».
Selon le site Down Detector, qui recense les pannes déclarées par les internautes, les soucis ont débuté dans la nuit de vendredi à samedi, avec un pic entre 2 heures et 3 heures du matin. Une deuxième vague de pannes a été observée dans l’après-midi, autour de 15 heures. Et samedi soir, il semblerait que le problème technique ne soit toujours pas résolu, et que le nombre de bugs déclarés soit de nouveau en train d'augmenter.
D’autres éléments à corriger
Le réseau social a annoncé mercredi les travaux en cours afin de rendre plus éthiques les algorithmes de l’application. Cela permettra d’accorder plus de contrôle aux utilisateurs. Twitter souhaite améliorer ses algorithmes de « machine learning », c’est-à-dire une technique d’intelligence artificielle (IA) qui permet aux ordinateurs d’«apprendre» automatiquement en se basant sur des données.
La société californienne parvient, par le biais de systèmes d’IA, à déduire selon la navigation d’un utilisateur s’il préfère par exemple des vidéos de chiens ou de chats. Cependant, la société admet que lorsque «Twitter utilise le « machine learning », cela peut avoir des conséquences pour des centaines de millions de tweets par jour, et parfois un système peut se comporter différemment de l’intention selon laquelle il a été conçu».
Ces derniers temps, les algorithmes des réseaux sociaux, tels que Twitter, Facebook et d’autres sont accusés de laisser passer trop facilement sur les comptes de milliards d’utilisateurs des contenus clivants qui diffusent des « fake news » ou des messages de haine.
Pour rappel, en début d’année, Twitter était sous le feu des critiques à cause de son système de recadrage automatique d’image.
En effet, si deux visages sont présents, alors l’algorithme choisira de mettre en avant l’individu à la peau plus claire. «Nous avons mené des tests sur les biais avant de livrer ce modèle et nous n’avons trouvé aucune preuve de biais raciste ou de genre lors de nos tests, mais il est clair que nous devons pousser les analyses», avait alors expliqué Liz Kelley, porte-parole de Twitter. Le responsable du design, Dantley Davis, avait également reconnu : «C’est 100% de notre faute. Personne ne devrait dire le contraire».