De nouvelles fonctionnalités se profilent à l’horizon pour les utilisateurs d’Apple avec l’émergence de la bêta d’iOS 15.3 succédant à la version 15.2 qui a vu le jour au début de la semaine, et ce en introduisant des nouveautés quant à la protection des données, notamment avec la désignation d’un légataire et des données indiquant la fréquence de l’accès des applications aux données, la possibilité de passer des appels d’urgence par le biais du bouton d’allumage, des options de localisation des objets perdus, des objets qui sont en mouvement parallèle avec l’utilisateur et la localisation de l’appareil jusqu’à cinq heure après son extinction.
Les utilisateurs attendent avec impatience les nouvelles fonctionnalités de cette version dont le lancement était prévu en automne, mais qui a été reporté à 2022. La version est d’ores et déjà disponible pour les développeurs, mais un code caché a été signalé dans la version bêta de MacOs 12.2 intitulée “Winter2022”. Ce qui pourrait être le signe indicateur de la période dans laquelle Apple prévoit le lancement officiel de la version.
De plus, Apple n’a indiqué aucune information officielle pour clarifier les perspectives de cette version, ainsi, les nouvelles fonctionnalités apparaîtront au cours de l’utilisation. La nouvelle version ambitionne d’apporter des solutions aux bugs afin d’améliorer la performance globale de l’appareil et d’introduire des correctifs de sécurité pour les appareils compatibles avec la version.
Outre les perspectives d’optimisation de la sécurité des données propres aux utilisateurs et la fluidité de l’appareil, cette version prévoit l’introduction d’une option dédiée à la protection des enfants contre les contenus inappropriés. A titre de rappel, une myriade de plateformes en lignes a lancé un appel pour fournir des efforts concertés en faveur de la protection de l’enfance. Apple a répondu à cet appel en mettant en lumière une fonction prévue pour iCloud qui permettrait la détection des contenus pédopornographiques.
« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », a déclaré la firme de Cupertino. Toutefois, cette nouveauté s’est déclarée sur fond d’appréhensions liées à la surveillance des masses, ce qui attise l’impatience des utilisateurs envers les mises à jour prévues par la version d’iOS 15.3.
Les utilisateurs attendent avec impatience les nouvelles fonctionnalités de cette version dont le lancement était prévu en automne, mais qui a été reporté à 2022. La version est d’ores et déjà disponible pour les développeurs, mais un code caché a été signalé dans la version bêta de MacOs 12.2 intitulée “Winter2022”. Ce qui pourrait être le signe indicateur de la période dans laquelle Apple prévoit le lancement officiel de la version.
De plus, Apple n’a indiqué aucune information officielle pour clarifier les perspectives de cette version, ainsi, les nouvelles fonctionnalités apparaîtront au cours de l’utilisation. La nouvelle version ambitionne d’apporter des solutions aux bugs afin d’améliorer la performance globale de l’appareil et d’introduire des correctifs de sécurité pour les appareils compatibles avec la version.
Outre les perspectives d’optimisation de la sécurité des données propres aux utilisateurs et la fluidité de l’appareil, cette version prévoit l’introduction d’une option dédiée à la protection des enfants contre les contenus inappropriés. A titre de rappel, une myriade de plateformes en lignes a lancé un appel pour fournir des efforts concertés en faveur de la protection de l’enfance. Apple a répondu à cet appel en mettant en lumière une fonction prévue pour iCloud qui permettrait la détection des contenus pédopornographiques.
« La méthode d’Apple pour détecter les CSAM (ndlr, les contenus illégaux) connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants », a déclaré la firme de Cupertino. Toutefois, cette nouveauté s’est déclarée sur fond d’appréhensions liées à la surveillance des masses, ce qui attise l’impatience des utilisateurs envers les mises à jour prévues par la version d’iOS 15.3.
Ikram KARYM