Nouveautés
Voici un aperçu de nos principales mises à jour pour les différentes plateformes et de l'Éditeur. Pour en savoir plus, consultez les notes de version.
L'optimisation du Frame Pacing des images pour Android, développée en partenariat avec l’équipe de jeux et graphismes Android de Google, permet une meilleure fréquence d’image et une expérience plus fluide en répartissant les images plus uniformément.
En tant que développeur pour mobiles, vous pourrez aussi tirer parti de la prise en charge améliorée OpenGL. La prise en charge du multithreading OpenGL (iOS) améliore les performances sur des appareils iOS d'entrée de gamme non compatibles avec Metal (soit environ 25 % des appareils iOS exécutant des jeux Unity).
La prise en charge du batcher du pipeline de rendu programmable OpenGL (iOS et Android) améliore les performances du processeur dans les projets utilisant le pipeline de rendu léger.
Grâce à cette nouvelle fonction, il est très facile de connaitre la taille finale des applications sur différentes cibles.
Ce système amélioré pour vos plateformes cibles vous aide à rationaliser le flux de développement. Seule la version d'aperçu est disponible. Nous cherchons des utilisateurs qui acceptent d'utiliser le nouveau flux de production et de nous donner leur avis.
Nous avons ajouté la prise en charge de la détection de visage, la détection d'images 2D, la détection d'objets 3D, les probes d'environnement et bien d'autres. Tous ces éléments sont disponibles en version aperçu.
- Suivi du visage (ARKit et ARCore) : Vous pouvez accéder aux repères des visages, à une représentation maillée des visages détectés et aux informations de forme de fusion, qui peuvent alimenter un rig d’animation faciale. Le gestionnaire de visages configure les appareils pour la détection de visages et crée des GameObjects pour chaque visage détecté.
- Suivi d’images 2D (ARKit et ARCore) : Cette fonctionnalité vous permet de détecter des images 2D dans l’environnement. Le gestionnaire de détection d'images crée automatiquement des GameObjects qui représentent l'ensemble des images reconnues. Vous pouvez modifier une expérience en RA en fonction de la présence d'images spécifiques.
- Suivi d’objets 3D (ARKit) : Vous pouvez importer des représentations numériques d’objets du monde réel dans vos expériences Unity et les détecter dans l’environnement. Le gestionnaire d'objets détectés crée des GameObjects pour chaque objet physique détecté pour permettre aux expériences d'évoluer en fonction de la présence d'objets spécifiques du monde réel. Cette fonctionnalité est très utile pour concevoir non seulement des jeux, mais aussi des expériences pédagogiques et de formation.
- Sondes d’environnement (ARKit) : Cela détecte les informations d’éclairage et de couleur dans des zones spécifiques de l’environnement, ce qui permet au contenu 3D de se fondre parfaitement dans l’environnement. Le gestionnaire de probes d'environnement utilise ces informations pour créer automatiquement des cubemaps dans Unity.
- Capture de mouvement (ARKit) : Cela capture les mouvements des gens. Le gestionnaire de corps humains détecte les représentations en 2D (espace écran) et 3D (espace monde) des humains reconnus par la caméra.
- Occlusion de personnes (ARKit) : Cela permet des expériences de réalité augmentée plus réalistes, en mélangeant le contenu numérique dans le monde réel. Le gestionnaire de corps humains utilise la segmentation de la profondeur des images pour déterminer si quelqu'un est positionné devant le contenu numérique.
- Session collaborative (ARKit) : Cela permet à plusieurs applications ARKit connectées de partager en permanence leur compréhension de l’environnement, permettant des jeux multijoueurs et des applications collaboratives.
Le HDRP inclut désormais la prise en charge des projets en RV (aperçu). Cette prise en charge est pour le moment limitée aux appareils sous Windows 10 et Direct3D11 et doit utiliser un rendu stéréo single-pass pour la RV avec le HDRP.
Accédez à toutes les fonctionnalités ci-dessus et bien plus dès aujourd'hui.