Icono del sitio Blog de Programación y Desarrollo – Nube Colectiva

Apple WWDC 2024 (Programadores) – Parte 4

Apple WWDC 2024 (Programadores) - Parte 4

Apple WWDC 2024 (Programadores) - Parte 4

En la tercera parte pudimos conocer novedades de SiriKit, notificaciones push de transmisión, nuevas características en MapKit para mapas de Apple.

Asimismo pudimos ver las increíbles vistas múltiples de videos y los juegos de mesa mediante TabletopKit para visionOS.

En esta cuarta parte seguiremos conociendo más características nuevas que nos dejó el WWDC 2024 para programadores, vamos con ello.

Partes

Algunos productos de Apple tienen sus años de lanzado al mercado, pero en este WWDC 2024 recibieron actualizaciones

Mejores Capturas de Contenido

Ahora podrás hacer uso del ScreenCaptureKit para capturas de contenidos en HDR.

Puedes hacerlo en dispositivos Mac, MacBook, iPad e iPhone.

Asimismo, podrás capturar el sonido del micrófono con SCStream obteniendo una calidad mejorada.

Podrás hacer grabaciones de transmisiones directamente en un archivo, permitiéndote el ahorro de tiempo en procesos adicionales:

El sistema captura la pantalla, el audio del dispositivo y el micrófono al mismo tiempo

Depurador de RealityKit

Este Kit te permitirá depurar problemas en el código de tus aplicaciones espaciales.

Asimismo, podrás depurar transformaciones no autorizadas y encontrar entidades faltantes.

El depurador te brinda información relevante para optimizar tu aplicación para los usuarios:

Al lado derecho puedes encontrar datos sobre la ubicación de un objeto y los materiales empleados

Nuevas API de Bienestar

Ahora el HealthKit incluye nuevas API para el estado de la menta o State of Mind.

Estas API permiten determinar el riesgo de depresión y ansiedad en los usuarios.

Las nuevas características de HealthKit ayudan a los usuarios a tomar conciencia del estado de su saluda mental:

El método HKStateOfMind.label puede ayudar a etiquetar el estado mental del usuario

Novedades en la Autorización de Ubicación

Ahora existen nuevos métodos para autorizar a las aplicaciones y obtener la ubicación del usuario.

Se añadió un sistema de diagnóstico que permite saber cuándo no se puede cumplir un objetivo de autorización.

Este sistema puede ser implementado mediante el método CLSserviceSession.Diagnostic()

Puedes usar el método .authorizationDeniedGlobally para denegar globalmente el uso de la ubicación del usuario

Modelos de IA y ML con Core ML

Ahora podrás inyectar modelos de inteligencia artificial y machine learning a tus aplicaciones.

El nuevo tipo MLTensor permite trabajar con arrays multidimensionales de manera óptima con los chips de Apple.

Tus aplicaciones podrán generar imágenes con IA mediante adaptadores y modelos de última generación.

La nueva API MLComputePlan añade características de ML para crear experiencias atractivas

API LockedCameraCapture

Esta nueva API permite que tus usuarios lleven la información más útil de sus aplicaciones favoritas a la pantalla de bloqueo.

Esta API actualmente está enfocada a dispositivos iPhone y iPad.

Podrás capturar fotos y videos teniendo la pantalla bloqueada usando el método LockedCameraCaptureSession()

Puedes crear extensiones de captura personalizadas

Translation API

Ahora podrás hacer que tus aplicaciones se traduzcan rápidamente en diferentes idiomas.

Incluso podrás traducir lotes de texto grandes en la interfaz del usuario.

Todo ellos gracias a la nueva API de traducción de Apple.

Puedes añadir el botón “Translate” para que los usuarios puedan traducir texto a su idioma preferido

Nuevas Características en DockKit

Ahora los usuarios podrán utilizar el dispositivo DockKit para obtener transiciones más fluidas entre sujetos.

Podrás desarrollar un control personalizado del DockKit para tus usuarios.

Asimismo, DockKit ahora utiliza modelos de aprendizaje automático para hacer un seguimiento más óptimo.

Ahora DockKit cuenta con nuevos modos de cámara: Foto, Pane y Cinemática

Enterprise API Para VisionOS

Se lanzó una nueva API para empresas que les permitirá crear experiencias especiales para sus empleados y clientes.

Esta nueva API provee de un acceso mejorado al sensor del Apple Vision Pro.

Asimismo, te permite hacer uso de un motor neuronal de CoreML para identificar productos con defectos o anomalías y otras tareas industriales.

Si estas intentando armar un dispositivo, podrás consultar con el soporte en tiempo real

Hasta aquí llegamos con esta cuarta parte con las novedades del Apple WWDC 2024 para programadores.

Ten Paciencia, lo que quiero es que conozcas bien estas novedades del Apple WWDC 2024 para programadores y no llenarte el capítulo de mucho contenido porque te puedes marear y no tendrás un óptimo aprendizaje.

Nota (s)

Síguenos en nuestras Redes Sociales para que no te pierdas nuestros próximos contenidos.

Salir de la versión móvil