(Sonido musical con la sintonía de Arroba Sonora)
Arroba Sonora. Número 32, septiembre de 2023.
Estela Landrove: Hola, ¿qué tal? ¿Cómo estáis? Bienvenidas, bienvenidos al número 32 de vuestro podcast de tecnología del CTI de la ONCE. Siempre lo decimos, pero creemos que no está de más recordarlo lo podéis escuchar a través de las principales plataformas de podcast, se lo podéis pedir a Alexa, se lo podéis pedir también a Siri, podéis escucharlo a través del Club ONCE, a través de la web del CTI y recientemente también podéis escucharlo a través del Gestor ONCE de libros digitales. Así que ¿qué más queréis? ¿Queréis más? Bueno pues si queréis más seguiremos trabajando para que esto siga fructificando como lo está haciendo hasta ahora. Recordad que a partir de este número 32 se nos podrá escuchar cada dos meses en lugar de cada tres, así que los que tenéis mono pues ya se va a hacer un poquito más corta la espera. Y todo eso es gracias a vosotros, a vuestro empeño, a vuestro esfuerzo, a vuestros mensajes, las plegarias han sido escuchadas.
Recibid un saludo de Francisco Javier Pariente, que está ahí también con la parte técnica, de Estela Landrove, que está delante del micrófono, y de todos los colaboradores que han hecho posible este número de Arroba Sonora. Una vez dicho esto, lo mejor que podemos hacer es irnos con el sumario.
(Sonido musical del sumario)
Estela Landrove: Como cada dos meses, en este caso, tenemos un sumario repleto de contenidos. Escucharemos nuestra sección al microscopio con Mónica Montes, Agus Aguirre, hablándonos sobre una aplicación llamada SoundScape, que nos va a ayudar a localizar calles, cruces, establecimientos, un montón de cuestiones, que así según yo os lo cuento parece muy sencillo, pero no lo es. Utiliza el sonido, tenemos que usarla con auriculares, nos van a contar más en profundidad en qué consiste ellos mismos y, es más, Mónica nos va a hacer una pequeña demostración de cómo funciona.
Desde la Universidad Miguel Hernández de Elche, el director del Instituto de Bioingeniería de dicha universidad, nos va a acercar a los últimos avances en visión artificial. Moisés González nos va a traer las novedades de iOS 17. Sabéis que a mitad de septiembre se presentaba a bombo y platillo iOS 17, los nuevos modelos de dispositivos móviles de Apple y aquí Moisés nos va a hacer un pequeño resumen de las novedades, sobre todo de accesibilidad, que trae esta nueva versión de ese sistema operativo.
Después os escucharemos a vosotros, a todos aquellos que habéis dejado notas en el 667-14-87-49, notas a través de WhatsApp.
Y más tarde, a través de arroba destaca, Agus Aguirre nos va a contar cómo funciona el chat de Google, basado también en inteligencia artificial igual que chat GPT en esta ocasión es Bard, no se lo querían perder los chicos de Google y han sacado este chat que bueno tiene algunas diferencias con respecto a que todos conocemos de OpenAI.
Más tarde nos iremos con el observatorio de apps Karina Ramírez, sabéis que nos trae las últimas aplicaciones que se han evaluado que podéis consultar las fichas en el Club ONCE de los últimos tres meses.
Luego, Fran Maldonado nos va a hablar de una skill muy interesante que se ha lanzado que es la Videoteca ONCE y esta skill no es ni más ni menos para que podamos reproducir las películas en Audesc que están en la biblioteca digital de la ONCE, pues que ahora las podamos reproducir a través de Alexa.
Los trucos también estarán presentes en nuestro número 32. Hablaremos de cómo cambiar algunos gestos en iPhone que nos pueden ayudar a simplificar algunas acciones. Después de Rosa Chacón, que le pusimos falta en el número anterior nos habla de un juego Mistworld que creo que está levantando pasiones y que tiene un montón de adeptos y de adictos.
Más tarde nos iremos con vuestras respuestas a través de arroba responde por correo electrónico, daremos respuesta al concurso, propondremos uno nuevo y ya sabéis lo que contiene esta sección habitualmente.
Y con esto se nos habrán acabado nuestras horitas que teníamos para estar juntos, pero para eso todavía queda mucho así que poneros cómodos porque esto comienza ya.
(Sonido musical del programa)
(Sonido musical con la sintonía de Al Microscopio)
Al Microscopio
Estela Landrove: Al microscopio, cada dos meses traemos aquí una aplicación, un dispositivo, un gadget, en fin, todo aquello que consideramos que puede ser de vuestro interés y lo destripamos un poquito. En esta ocasión, ¿qué tenemos? Bueno, pues tenemos una aplicación, creo que muy interesante, se llama SoundScape y Mónica Montes y Agus Aguirre están muy familiarizados con ella y nos van a ayudar a conocerla. Mónica, Agus, bienvenidos.
Mónica Montes: Hola, muchas gracias.
Agus Aguirre: Buenas, gracias.
Estela Landrove: SoundScape, ¿qué es esa aplicación? Yo decía en el sumario que nos va a ayudar a situarnos en lugares, a encontrar algunas tiendas, pero esto es contado así de forma muy somera, muy rápida. ¿Quién se atreve a contarme más extensamente qué es esta app, para qué sistemas funciona, si es sólo para iOS, sólo para Android? Empezad a contarme, por favor.
Agus Aguirre: Pues así muy rápidamente, SoundScape es una aplicación que no es nueva, ya tiene bastante tiempo, lo que pasa que no estaba disponible en la historia española. Fue desarrollada por Microsoft, lo que pasa que luego se discontinuó y ahora se retomó. Y es una aplicación únicamente para iOS, ¿vale? Es una aplicación de navegación GPS que se complementa con otras como puede ser Google Maps o Apple Maps. ¿Por qué? Porque básicamente la aplicación, si bien te ofrece una serie de características bastante interesantes que iremos viendo luego, hay otras cosas que no hace, como, por ejemplo, darte indicaciones precisas del recorrido, del estilo a 20 metros gira a la izquierda por la calle tal.
Mónica Montes: Claro, tú la tienes que complementar con estas aplicaciones que hemos dicho de Google Maps o Apple Maps, ¿para qué? Pues para que esas aplicaciones sí que te den las indicaciones y luego SoundScape lo que va haciendo es ir informándonos de las calles por las que vamos pasando, los establecimientos que nos vamos encontrando y bueno se puede configurar, podemos configurar lo que queremos que nos anuncie, si queremos sólo las calles pues sólo las calles, que queremos los establecimientos, pues dependiendo en cada momento de lo que queramos y ya cuando vayamos a llegar al destino pues ya veremos lo que lo que tenemos que hacer para localizarlo.
Estela Landrove: O sea que sobre todo nos va a servir para guiarnos, para ayudarnos a encontrar un destino, quiero decir, estamos buscando por ejemplo una tienda X, la que sea, y con esta aplicación nos iría diciendo por las tiendas que vamos pasando, por los lugares que tenemos a nuestro alrededor y la localizaríamos. Sería así, ¿no?
Mónica Montes: Exacto y además es que, como tenemos que utilizar los auriculares, las indicaciones en lugar de decir pues está a cinco metros a la derecha, que también emite el sonido, la procedencia del sonido es dependiendo de donde esté el lugar, si está a la derecha te suena el auricular derecho, si está a la izquierda, el izquierdo, si está enfrente los dos, entonces pues también nos ayuda mucho eso. Se recomienda, por cierto, una utilización de auriculares de conducción ósea porque para ir por la calle con auriculares normales es un poco peligroso, puede resultar.
Estela Landrove: Sí, sobre todo porque tienes que llevar los dos puestos.
Mónica Montes: Se puede llevar uno, pero yo creo que la información se obtiene mejor con los dos.
Estela Landrove: Y me gustaría que nos contaras, imagino, que, si esta aplicación es accesible, no es accesible, porque si no es accesible, mal vamos.
Agus Aguirre: La aplicación es accesible, tiene algunas características que, lógicamente, podrían llegar a mejorar y sobre todo hay ciertos perfiles que podrían llegar a haber algún tipo de dificultad, porque como estábamos hablando utiliza lo que sería un audio espacial, un audio 3D y claro si uno piensa, por ejemplo, en un perfil que tiene problemas o dificultades auditivas pues es una aplicación que de poco le va a valer, o sea quiero decir sí que tiene ciertas falencias que habría que ver si se pueden adaptar, pero está pensada para eso para un sonido espacial.
Mónica Montes: Y una cosa que antes de que se me olvide, que me gusta mucho de esta aplicación y que yo creo que a todo o a casi todo el mundo le puede ser útil es que no es necesario tener el móvil en la mano ¿por qué? Pues porque si tenemos auriculares pues como a lo mejor unos AirPods Pro o algún otro seguro que hay por ahí, que lo permitan, podemos hacer que SoundScape siga la orientación de nuestra cabeza y esto hace que no sea necesario llevar el móvil en la mano porque con los auriculares ya el detecta hacia donde estamos mirando y nos va ubicando.
Estela Landrove: Me gustaría, Agus, que nos mostraras un poquito in situ como funciona esta aplicación, nos la bajamos del App Store, buscamos SoundScape y ¿qué pasa?
Agus Aguirre: Vale comentamos un par de cositas rápidas primero en relación a lo que estaba diciendo Moni, ahí hay otro problemita de la aplicación que está bien que la gente lo sepa y es que esto de la brújula al utilizar AirPods va muy bien, pero por ahora no es compatible con ciertos modelos de auriculares de conducción, o sea que deberían porque tienen el chip correspondiente, pero ahora mismo no los está soportando. Esto a futuro supongo que los irán agregando. La aplicación, como decía, se descarga desde la App Store. Hay ahora mismo, que nosotros sepamos, dos con el mismo nombre y la que estamos utilizando es la SoundScape Community. Porque si bien parecen ser iguales, no lo son.
Estela Landrove: Vamos a deletrear SoundScape para que nadie se nos pierda.
Agus Aguirre: Vale, es S O U N D S C A P E.
Estela Landrove: Perfecto, todo junto, muy bien. Tenemos dos, tenemos que descargar la Community.
Agus Aguirre: Sí, porque a la hora de utilizar esto que comentábamos de servicios de mapas externos, como puede ser Apple Maps o Google Maps, la otra que hay no te muestra esos servicios, no te muestra ninguno. Entonces no está completa.
Estela Landrove: Vale, perfecto. Muy bien. Una vez que la tenemos descargada.
Agus Aguirre: Una vez que la tenemos descargada, vamos a ir viendo rápidamente cómo es la app.
Lector de pantalla: SoundScape, SoundScape. Le damos la bienvenida a SoundScape, comenzar, botón…
Agus Aguirre: Vale, no tengo en mi caso los sonidos de VoiceOver, pero estoy haciendo flicks lo voy a comenzar.
Lector de pantalla: SoundScape funciona muy bien con cualquier tipo de auriculares si desea usar auriculares tómelos ahora, si no tiene auriculares o prefiere no usarlos SoundScape seguirá funcionando con los altavoces del teléfono. Continuar, oiga su entorno. SoundScape le ayuda a saber dónde se encuentra y hacia dónde va avisando de carreteras, cruces y puntos de interés a medida que se acerque a ellos. Escuche un ejemplo sobre de lo que SoundScape podría avisar en su próximo paseo, escuchar, botón…
Agus Aguirre: Vale, esto que vamos a ver ahora es lo que estábamos comentando, ¿no?
SoundScape: Cafetería. Parada de autobús. A punto de llegar al cruce. Calle principal a la izquierda (suena por el lado izquierdo). Calle principal a la derecha (suena por el lado derecho).
Agus Aguirre: Vale, creo que queda bastante claro cómo...
Lector de pantalla: Continuar. Botón.
Estela Landrove: Los que nos estén escuchando con auriculares, podrán detectar que calle principal a la derecha nos lo dice por la derecha y la calle principal de la izquierda nos lo dice por la izquierda.
Lector de pantalla: Al navegar con SoundScape, el usuario se guiará por una señal de audio. Para ello, SoundScape necesita que el usuario admite los siguientes permisos. Servicios de localización, comunicación de chat.
Agus Aguirre: Bueno, me los voy salvando un poquito de rato esto.
Lector de pantalla: Aviso. SoundScape usa mi único mapa. Permitir una vez. Permitir al usarse la app. Aviso. SoundScape quiere acceder a SoundScape. No permitir.
Agus Aguirre: Pide actividad en salud también.
Lector de pantalla: SoundScape pulsa elegir una señal de audio…
Agus Aguirre: Vale, esto es importante. Cuando nosotros buscamos un destino al que queremos dirigirnos, iniciamos la señal de audio que sería el típico en otras aplicaciones alternativas, el botón de comenzar o iniciar recorrido, lo que hace es que se inicia una señal que cuando vamos girando y la tenemos centrada o frente nuestro, nos suena para indicarnos que estamos bien situados para dirigirnos hacia el punto de vista.
Lector de pantalla: Al navegar con SoundScape, escuche las señales de audio disponibles y seleccione su preferencia. Esa puede cambiar más adelante en la configuración de la aplicación.
Agus Aguirre: Tenemos varias.
Lector de pantalla: Original, botón, táctil, original, botón. (sonido de golpes ligeros) Pulsa dos veces para cerrar el mensaje. Colocando la señal a su derecha, gire para seguir su sonido y prueba el audio espacial de la señal.
Agus Aguirre: Si yo voy moviendo el iPhone...
Lector de pantalla: Señal adelante. Señal adelante. (los golpes ligeros se escuchan de frente junto a un pitido)
Agus Aguirre: Ahora mismo tengo centrada la señal. Cuando escucho esto, tendría que dirigirme recto. (se acerca a los sonidos) Hay varias de estas señales. Por ejemplo, si mostramos una (suena una melodía aguda en lugar de los golpes ligeros). Esta es otra (suena una melodía diferente a la anterior). Hay que centrar eso. Y así va. Varios. Solo voy a ver una original.
(el lector de pantalla nos guía a través de la aplicación)
Agus Aguirre: Vale, pues estamos en la pantalla principal de la aplicación. Tenemos un botón para ponerlo en pausa, un buscador para ver lugares cercanos, aquí es porque podemos añadir marcadores, por ejemplo, llegamos a la parada de un bus que, o un punto que nos interesa marcar y lo podemos añadir, o sea, podemos añadir la ubicación actual como marcador y luego fijar como destino marcador o tener rutas armadas.
Lector de pantalla: Oír información acerca de lo que hay a mi alrededor, encabezamiento, mi ubicación, botón, alrededor de mí, botón, delante de mí, botón, marcadores cercanos, botón, marcadores cercanos, botón.
Agus Aguirre: Y se acabó, o sea es la pantalla principal de la aplicación, no tiene muchas cosas, está en español y es bastante clara…
Estela Landrove: Sencilla.
Agus Aguirre: Si, si, no tiene demasiada… entonces, por ejemplo, le damos a marcar ubicación.
SoundScape: Mirando al este por vía de servicio.
Agus Aguirre: Me dice eso. Pero si le damos ubicación actual…
Lector de pantalla: Ubicación, 0 metros. Detalles de la ubicación. Cerca del camino de las hormigueras. 0 metros, cerca del camino de las hormigueras. 164 28031 Madrid, Madrid.
Agus Aguirre: Aquí tenemos esto. Podemos iniciar la señal de audio hacia el destino, que en este caso no tiene sentido porque es donde estamos. Sería como circular, ¿no? Pero esto sí que es interesante. Guardar como marcador. Podemos guardar este punto con un nombre y luego lo buscamos como si fuera una especie de favoritos.
Compartir y abrir la aplicación de mapas externas. Esto sí que es interesante, pero ahora lo vamos a ver. Vamos a buscar algo y en el caso ya empezamos a explicar más cosas de la aplicación. Elegir destino.
Lector de pantalla: Punto de inserción al final. Punto de inserción al principio.
Agus Aguirre: Por ejemplo, podemos poner correos. Elijo el destino. Y aquí le vamos a dar. Vamos a abrir aplicación de mapas externa. Y elegimos Google Maps. Se nos abre en Google Maps. Deberíamos de iniciar.
SoundScape: Gira a la izquierda.
Agus Aguirre: Entonces ahora volveremos a la app a SoundScape. Devolver desde el selector. Y le voy a dar a iniciar señal de audio.
SoundScape y lector de pantalla: Señal de 170 metros. 175 metros. (señal de golpes ligeros)
Agus Aguirre: Entonces, ¿qué pasa? Ahora mismo tengo por un lado Google Maps que va a ser el que me va a indicar gira a la izquierda, u otro tipo de indicaciones, o incluso poder ir viendo la distancia, poder ir viendo, en fin, lo que es que estamos acostumbrados de Google Maps, ¿no? Pero a su vez, con SoundScape, podría centrar, por ejemplo, decir, vale, pero ¿hacia dónde está el sitio? Entonces voy girando el móvil, (sigue el pitido con el móvil) y ahí tengo la señal de audio de dónde está el destino. Vale, entonces, iríamos siguiendo esta señal hasta llegar.
Mónica Montes: Pues eso lo podemos tener en segundo plano. Podemos irnos a Google Maps si queremos ver si vamos por el camino correcto para ver si van reduciendo los metros y demás. (continúa el pitido de la señal) Y de fondo veis que seguimos escuchando la señal de SoundScape.
Agus Aguirre: Esto sería la parte de cómo iniciar una ruta y cómo vincularla o cómo utilizarla en combinación de otra aplicación de navegación.
Mónica Montes: Si queremos quitar la señal, en teoría si damos dos pulsaciones con dos dedos se quita.
Estela Landrove: Con el toque mágico, ¿no?
(se detiene la señal)
Mónica Montes: Eso es. Ya la hemos quitado.
Agus Aguirre: Ya la hemos quitado. Y la volvemos a poner.
(vuelve la señal)
Agus Aguirre: Sería como una especie de pausa, ¿no? Eso. Entonces... esto lo que hace es que la quita del todo, no hay que confundir lo que hemos hablado recién con quitar, si es quitar se acabó.
Mónica Montes: Claro si no queremos, yo personalmente, pausar la señal me viene bien porque a lo mejor no quiero oír todo el tiempo toc toc toc toc… Entonces me viene bien porque a medida que voy caminando, como tengo la señal en pausa pero como sigue estando como ahí un poco en segundo plano, de vez en cuando SoundScape te va indicando la distancia que tienes hacia la señal, entonces de vez en cuando te va diciendo señala a 100 metros señala a 50 metros, entonces aparte de mirarlo en Google Maps o en Apple Maps pues tienes también ese feedback de SoundScape, aunque tú no estés escuchando la señal, y luego a lo mejor cuando ya te quede poquito para llegar al destino, la vuelvas a activar para que ya te avise y lo puedas localizar de una manera más precisa. Pero es un truquito si no queréis estar escuchando todo el tiempo ese ruido ahí, con los auriculares.
Estela Landrove: De hecho, vamos a tener la oportunidad, Mónica, de escuchar una pequeña demostración que nos has grabado para Arroba, para que nuestros oyentes vean un ejemplo real por la calle de cómo funcionaría solamente SoundScape, sin tener Google Maps activado.
Mónica Montes: Sí, exacto. Yo hice una grabación, hemos hecho una grabación para que lo veáis. Yo ya me sabía un poco la ruta porque la había mirado previamente en casa y no utilicé aplicación externa en conjunto, pero se puede acceder, ya lo veis.
Estela Landrove: Pues si queréis, lo escuchamos.
Agus Aguirre: Si. Antes vamos a ver una cosa muy rápidamente, que a mí me parece una de las características quizá más interesantes de la aplicación. Vamos a buscar un lugar. Por ejemplo, ONCE vamos a poner.
Lector de pantalla: Vertical, tres resultados encontrados, 11, 7,5 kilómetros por oeste, tres calles de Primo, Madrid, Madrid, 28,004 España.
Agus Aguirre: Y aquí vamos a elegir la versión… Esta, SoundScape Street Preview.
Lector de pantalla: Le damos la bienvenida a SoundScape Street Preview. Encabezamiento, explore y conozca un área de cualquier lugar del mundo. Para lograr la mejor experiencia, le recomendamos que permanezca de pie para girar en el lugar y use auriculares esteros. ¿Qué está a punto de suceder? Encabezamiento, ha llegado a la calle cerca de la ubicación que ha seleccionado. Usando el teléfono como puntero, gire lentamente y habrá oído avisos con los nombres de las calles conforme gire. Cuando esté mirando a la calle que desea recorrer, pulse en ir y avanzará al siguiente cruce. Continuando su exploración, en cada cruce, puede usar el teléfono de nuevo para elegir qué carretera recorrer o puede explorar su entorno inmediato con los botones habituales de SoundScape de la parte inferior de la pantalla. Puede pulsar en buscar para iniciar la señal de audio en cualquier punto de interés, cambiar su ubicación o simplemente explorar el área con mayor detalle. Disfrute y diviértase. Listo.
Agus Aguirre: Vale, ¿qué es esto? Pues esto es algo muy parecido a lo que tiene la gente que ve cuando te dice pues voy a mirar cómo es la zona a la que vamos a ir y voy a mirar que hay alrededor o qué calles tengo alrededor, entonces esto nos permite elegir un punto y examinar qué tenemos alrededor de ese punto, ver una calle concreta, en fin, hacer como simular.
Mónica Montes: O hacernos una ruta si nosotros vemos en Google Maps una ruta o luego la podemos aquí hacer de forma virtual antes de llegar a hacerla realmente.
SoundScape: Iniciar destino en calle de Prim y Cuartel General del ejército. Cerca de calle de Prim, 35 metros. Gire el teléfono para obtener una vista previa de las carreteras disponibles. (suena una melodía) Calle de Prim, dirigiéndose hacia oeste. Cuartel General del ejército, dirigiéndose hacia sur siguiente cruce, Cuartel General del ejército y calle de Prim, 80 minutos.
Agus Aguirre: Por ejemplo…
SoundScape: A continuación, presione ir calle de Prim, dirigiéndose hacia este, anterior siguiente cruce. Aproximándose al cruce. Calle del Conde de Siquena, a la izquierda. Calle de Prim, continúa hacia adelante.
Agus Aguirre: Entonces, podemos ir como caminando, pero estando en el lugar.
Estela Landrove: ¿Solo nos dirá calles o también nos puede decir, por ejemplo, tiendas o cosas similares?
Mónica Montes: No, aquí solo dice calles.
Agus Aguirre: Las calles y lo que son las intersecciones.
Mónica Montes: Si quieres ver tiendas tienes que darle a explorar, aquí…
(el lector de pantalla empieza a explorar)
Agus Aguirre: Hay varios lugares, ¿no?
Mónica Montes: Hay varios lugares.
Agus Aguirre: Entonces, vamos a darle atrás.... Y luego... Bueno, salir.
SoundScape: Analizando Street Preview...
Agus Aguirre: Esta característica a mí me parece súper interesante. No conozco una aplicación que haga exactamente lo mismo. Lo más parecido, yo creo, que para el que la haya utilizado alguna vez era Ariadne en GPS, que te permitía como moverte por el mapa, pero me parece mucho más práctico esto.
Estela Landrove: Podemos hacernos una idea mental de lo que nos vamos a encontrar a la izquierda, a la derecha, delante de nosotros, me parece súper interesante.
Agus Aguirre: Incluso lo que decía Moni, hacerte una ruta.
Mónica Montes: Hacerte una ruta, o sea, es que es increíble, hacerte una idea previa de dónde tienes que ir a un sitio que no conoces o te mudas a un barrio nuevo y quieres saber lo que tienes cerca, las calles que tienes alrededor, los sitios... es que está genial, no podemos decir otra cosa.
Estela Landrove: Bueno pues estoy de acuerdo con vosotros. Mónica y Agus que la han estado tratando, la han estado trabajando y se la conocen fenomenal, pues ya os han traído ese funcionamiento y Mónica como os decía yo antes pues se ha cogido el móvil, unos auriculares, SoundScape y se ha ido a dar una vuelta por Madrid. Escuchamos cómo funciona.
Mónica Montes: Venga, vamos a ello.
(Comienza una grabación de Mónica)
Mónica Montes: Pues vamos a abrir la aplicación de SoundScape para encontrar el lugar al que nos vamos. Abrimos y vamos a buscar una dirección. Al abrirla, si ya escucháis, me va indicando las cosas que tengo alrededor. Y como llevo auriculares puestos, sé si el lugar está a la izquierda, a la derecha, o delante o detrás.
(Mónica navega por la aplicación mientras el lector está activo)
Mónica Montes: Yo cuando llegue al destino, voy a poner la señal de audio, que es la que me va a indicar dónde está mi lugar. Yo voy a llevar el móvil bloqueado ahora mismo porque estoy haciendo la grabación, pero se puede llevar perfectamente bloqueado y en el bolsillo. Y se puede llevar en el bolsillo porque me va a ir siguiendo la cabeza. Para esta aplicación sí que es recomendable utilizar unos auriculares de conducción ósea, porque, si no, nos aislará mucho de lo que es el entorno. Entonces, según vayamos caminando vais a ir escuchando los distintos cruces y lugares que tenemos alrededor. Se puede configura los lugares que queremos que la aplicación nos anuncie, transporte público, cruces, establecimientos, o lo que sea, se puede configurar a gusto del usuario.
SoundScape: NONC, Delegación Territorial de Madrid. Teatro Infanta Isabel. Palacio de Buenavista.
Mónica Montes: Sí que es importante tener en cuenta que para utilizar esta aplicación se debe hacer en combinación con alguna aplicación de guiado tipo Google Maps o Apple Maps o similar, porque esta aplicación lo que hace es informar de los cruces y de las cosas que encontramos, pero no nos va guiando como tal. Entonces nosotros sin saber el camino, a través de alguna aplicación externa.
SoundScape: Aproximándose al cruce. Calle del Barquillo, a la izquierda. Calle de Augusto Figueroa, continúa hacia adelante. Calle del Barquillo, a la derecha. Panot. Paso de peatones. Aproximándose al cruce. Calle de Augusto Figueroa, continúa hacia adelante. Calle Válgame Dios, a la derecha. Carlos Conde. Junco. Levadura Madre. Pedro de la Torre. Aproximándose al cruce. Calle de la Libertad, a la izquierda. Calle de Augusto Figueroa, continúa hacia adelante. Calle de la Libertad, a la derecha. Paso de peatones. Aparca bicis. Casa Lolea. Mercado de San Antón. Fuente de agua. Don fruta. Aproximándose al cruce, aproximándose al cruce calle de las infantas a la izquierda, calle de Hortaleza continúa hacia adelante, calle de las infantas a la derecha, la española, JC chueca. Carrefour Express. Aproximándose al cruce. Calle de Fuencarral, a la izquierda. Calle de Fuencarral, a la derecha.
Mónica Montes: Ya, la siguiente es Fuencarral.
SoundScape: Victoria´s Secret.
Mónica Montes: Voy a poner la señal de audio para encontrarla.
Lector de pantalla: Habla activada.
SoundScape: Calle de San Onofre.
(comienza a sonar la señal)
Lector de pantalla: Señales cerca de calle de Fuencarral. 50 metros oeste.
Mónica Montes: Y me dice que está a 50 metros. Voy a ir siguiendo esta campanita que podéis escuchar ¿veis? esta campanita me va diciendo que voy por el camino correcto.
(la aplicación enumera los negocios y tiendas cercanos)
Mónica Montes: Está por aquí ya, me lo ha anunciado Ya está aquí.
SoundScape: Señal a menos de 15 metros. Se ha silenciado la señal de audio, instituto Gabriel Simón, Míster wonderful.
Mónica Montes: Vale, yo sé que es a la derecha porque lo he mirado previamente en una aplicación de navegación externa y le he dicho que desde la calle Juan Carral mi destino está a la derecha.
(Fin de la grabación)
Estela Landrove: Hemos terminado de escuchar esa grabación que nos ha hecho Mónica, que se ha jugado casi la vida.
(todos se ríen mucho)
Mónica Montes: Bueno, no tanto, pero...
Estela Landrove: Pero eso ya os lo contaremos en otro momento.
Mónica Montes: Eso, eso. Harina de otro costal.
Agus Aguirre: Son los extras de Arroba.
Estela Landrove: Eso se queda para nosotros lo que pasa en Arroba, en Arroba no sale de Arroba. Esto es como lo que pasa en Las Vegas no sale de Las Vegas, pues esto es lo mismo. Una aplicación súper interesante, Agus, Mónica, yo creo que hemos contado básicamente lo más destacado, ahora que nuestros oyentes que tengan iPhone se la descarguen, que se acuerden de que es SoundScape Community, que la utilicen y que nos cuenten que les parece, que hasta donde han llegado a ir, que han conseguido, en fin, yo creo que se pueden lograr muchas cosas y muy interesantes.
Mónica Montes: Esperamos que os parezca interesante esta aplicación, que la disfrutéis y nada, que si la consideráis interesante la difundáis y nos aportéis todas aquellas sugerencias de mejora que consideréis interesantes.
Estela Landrove: Ya sabéis, el correo electrónico podéis hacerlo a través de SAUCT@ONCE.es o si no a través de ArrobaSonora@ONCE.es. Agus, Mónica, encantada una vez más. Muchas gracias chicos.
Agus Aguirre: Muchas gracias a ti.
Mónica Montes: Muchas gracias a vosotros.
(Sonido musical del programa)
(Sonido musical con la sintonía de Hoy Hablamos de…)
Hoy Hablamos de Visión Artificial
Estela Landrove: Hace algunos meses en Arroba Sonora contábamos con Eduardo Fernández, él es el director del Instituto de Bioingeniería de la Universidad Miguel Hernández, que nos contaba un proyecto súper interesante, un proyecto de... creo que podríamos llamarlo, si no es así Eduardo me corriges, de Visión Artificial. Nos pareció interesante lo que habían conseguido. Ellos siguen trabajando y hemos tenido la oportunidad de encontrarnos con él y hemos dicho, Eduardo vente para Arroba y nos cuentas a ver cómo van esos avances. Eduardo, bienvenido una vez más.
Eduardo Fernández: Muchísimas gracias por la invitación y ya sabes que es un placer estar siempre con vosotros.
Estela Landrove: El placer es nuestro, aquí tienes tu casa, ya lo sabes, y hablaba yo antes de este proyecto de eh... ¿podríamos decir visión artificial, Eduardo? Para aquellos que no escucharan eh... nuestro podcast anterior, haznos un pequeño resumen de en qué consiste este proyecto.
Eduardo Fernández: Bueno, si realmente es visión artificial, un poco el... digamos, el objetivo del proyecto es intentar proporcionar lo que nosotros llamamos visión útil o visión funcional, que es información del entorno pues para algunas tareas como orientación, movilidad, leer caracteres grandes en un ordenador, o sea no es ver como se podía una persona que no tenga ningún problema visual pero sí aportar una información suficiente que pueda servir pues para las actividades de la vida diaria.
Estela Landrove: Y ese proyecto lleváis con él ¿cuántos años?
Eduardo Fernández: Uff… llevamos muchísimos años y yo creo que ya más de 30 años. Empezamos con estudios en animales de investigación, cada vez animales un poco más parecidos al ser humano. Hace unos años también tenemos estudios en monos, en primates no humanos. Y actualmente estamos en un estudio clínico y lo que estamos haciendo es implantando una pequeña matriz de micro electrodos. Para que os hagáis una idea es del tamaño más pequeñito que la uña del dedo meñique. Ahí hay muchos alfileritos. Esos son micro electrodos. En concreto hay 100 micro electrodos y eso lo ponemos en la parte de cerebro que procesa visión.
¿Por qué lo hacemos así? Y es porque todos vemos con el cerebro. Es una cosa que nos puede llamar la atención, no vemos con el ojo evidentemente. El ojo es necesario y es fundamental pero lo que hace el ojo es codifica lo que hay en el exterior y lo codifica en el tipo de señales que entiende el sistema nervioso que son señales corrientes eléctricas y esas corrientes eléctricas van desde el ojo por un cable que se llama nervio óptico hasta una parte que está como en el centro de la cabeza que se llama cuerpo geniculado y desde ahí a la zona del cerebro que procesa visión que está un poco por encima de la nuca.
Entonces nosotros lo que intentamos hacer es codificar también de manera artificial lo que tenemos en el exterior y eso lo codificamos en señales eléctricas y la mandamos directamente a esa zona del cerebro que se llama corteza visual o corteza occipital, se llama occipital porque está en la parte occipital del cerebro.
Estela Landrove: Y me decías que implantáis un pequeño micro electrodo ¿verdad? Con 100 agujitas, así para entendernos, 100 pinchitos. Yo he tenido la oportunidad de tenerlo en la mano y es exactamente como lo describe Eduardo. Para nuestros oyentes más mayores, Eduardo, no sé si lo habrá conocido, se parecería más o menos a lo que es una celda del optacón. El optacón era un invento, porque realmente era así, de los años 70 y que, para mí, en mi opinión, no ha perdido todavía vigencia, que lo que hacía es que mediante una cámara iba reconociendo letras y tenía una matriz con, creo que eran 64, en este caso alfileritos, que te iban reproduciendo la letra en relieve. No era en braille, sino en relieve. Entonces a mí cuando toqué ese electrodo, pues me recordó un poco al sistema del optacón, pero en este caso lo que hace es estimular esas partes del cerebro para que se pueda percibir, no ver, pero sí para que se pueda percibir.
Pero no solamente conectáis este electrodo, si me permitís la expresión, sino que tiene que haber algún dispositivo más fuera del cerebro que esté conectado a él, ¿no? ¿Esto cómo funciona?
Eduardo Fernández: Claro, pues mira, el sujeto lo que lleva es unas gafas, que parece unas gafas completamente normales, y esas gafas llevan un sensor, que es una especie de cámara, que capta la información de lo que tenemos en el exterior y además lleva sensores para ver dónde mira la persona. ¿Por qué?
Estela Landrove: Súper interesante, porque eso para una persona ciega es fundamental, el tema del enfoque es una de las complicaciones.
Eduardo Fernández: Claro, y aquí es algo que hay que tener en cuenta, que el electrodo está siempre en el mismo sitio del cerebro, el cerebro evidentemente no se mueve, pero el ojo sí, y lo que hemos aprendido es que las percepciones cambian en función de dónde está mirando el sujeto. Como además, como el electrodo es muy pequeñito, digamos, la porción del campo visual que se ve también es pequeña, entonces el sujeto para encontrar cosas, por ejemplo, una de las tareas que tenemos es encontrar un teléfono móvil que es muy pequeño, entonces al final tienes que buscarlo y lo buscan no solamente con la cabeza sino al final es una cosa más natural, lo vas buscando con los ojos y la estimulación o la percepción que tú tienes o que tienen los pacientes o las personas voluntarias que están colaborando con nuestra investigación está en función de dónde miran.
Entonces al final estamos aprendiendo también a hacer eso, a estudiar bien dónde mira una persona, que en el caso por ejemplo de las personas ciegas es un poco más difícil hacer el seguimiento de la mirada, pero se puede hacer, se puede hacer.
Estela Landrove: Tú nos contabas hace yo creo que fue hace un par de años o el año pasado cuando hablábamos contigo que además fue un bombazo, estuvisteis en todos los medios de comunicación con Bernabé, si no recuerdo, que habíais tenido esa paciente que os había dado muchas satisfacciones que había conseguido pues poder jugar a un come cocos y cosas similares pero supongo que desde entonces ahora habéis tenido más implantados y habéis ido mejorando digamos la técnica supongo que habréis ido cambiando también la tecnología porque en este caso nos viene bien contamos con la rapidez de la electrónica y que cada vez los dispositivos son más pequeñitos.
Eduardo Fernández: Pues así es, ahora actualmente ya tenemos tres personas voluntarias que han participado de una forma muy generosa y altruista en nuestras investigaciones y poco a poco y gracias a ellos hemos podido avanzar bastante y también un poco, como también bien dices, toda la tecnología, la electrónica pues está evolucionando muy rápidamente y eso quiere decir que ahora somos capaces de hacer cosas bastante más rápido y que pueden procesar también a mayores velocidades y antes no éramos capaces de hacer eso.
Entonces, gracias a todo, creo que estamos avanzando bien, pero es un proceso lento. Lo que pretendemos hacer es muy complejo, es muy difícil, y creo que es importante avanzar poco a poco y también resaltar que no hay que crear falsas expectativas. Los avances que tenemos o los hallazgos son muy prometedores, pero no deja de ser un futurible. Hay que, de momento, si alguien tiene la desgracia de tener cualquier problema visual, nosotros siempre le recomendamos que vayan a la once, que utilicen las herramientas que ya proporciona la Tiflotecnología, y un poco las tecnologías que estamos desarrollando nosotros es cuando todo eso falla o no es suficiente para la persona, pero en cualquier caso todavía no es una realidad. Nos encontramos todavía en una fase de investigación, una fase experimental.
Estela Landrove: Tú hablabas antes de la inteligencia artificial que ha irrumpido en nuestras vidas y de qué manera y supongo que también en este proyecto, en este trabajo clínico también estará haciendo, ayudando en este caso a los distintos implantados. ¿De qué manera la inteligencia artificial, Eduardo, está colaborando con la ciencia o en este caso con vuestro proyecto?
Eduardo Fernández: Bueno pues me alegro que me hayas hecho esa pregunta porque nos hemos dado cuenta que la inteligencia artificial es clave para el éxito de este tipo de aproximaciones. En este caso nosotros, claro, la camarita que está en las gafas capta la información, pero utilizamos técnicas de inteligencia artificial para ayudarle al sistema a procesar todo eso, porque con técnicas de inteligencia artificial es muy fácil saber si lo que tienes delante es una persona o tres personas, que es lo que están haciendo, hacia dónde se están moviendo, dónde está la mesa, dónde está la silla, dónde está la puerta. Todo eso se codifica con técnicas de inteligencia artificial y además hemos aprendido a hacerlo en tiempo real. En tiempo real somos capaces de hacer todo eso y mandar esa información directamente a la parte del cerebro que está procesando visión y son técnicas que ayudan de una manera que sin ellas sería muy difícil conseguir un poco los resultados que estamos consiguiendo actualmente.
Estela Landrove: ¿De qué manera ven o perciben? No quiero usar la expresión ver porque no ven realmente, están percibiendo. Y no ven sus ojos, sino que insistimos ve su cerebro ¿De qué manera perciben estas personas implantadas las puertas, las mesas? ¿Para qué podrían utilizar este implante? ¿Qué están pudiendo hacer?
Eduardo Fernández: Actualmente estamos haciendo tareas que son muy sencillas, muy simples, pero lo que se percibe son digamos como, como bultos, como formas pero se pueden percibir o podemos inducir muchas formas diferentes y al final es como un aprendizaje de un lenguaje entonces y las personas aprenden que esta forma pues significa esto que esta otra forma significa otra cosa diferente. Al principio intentábamos por ejemplo pues para que una persona percibiera un rostro pues intentar como dibujar pues los ojos la nariz la boca pero eso hemos visto que es francamente muy difícil y muy complejo y al final lo que estamos intentando es enviar una información…
Estela Landrove: Más sencilla.
Eduardo Fernández: Más sencilla, pero que la persona aprende que eso significa que esto es una persona y podemos inducir pues una persona o podemos, por ejemplo, una de las últimas cosas que hicimos con Xavier es de manera virtual, por ejemplo, podemos hacer como itinerarios virtuales y te puede guiar. Tú vas en un edificio que no conoces o que nunca has estado, te puedes desplazar, ir esquivando objetos y llegar un poco hacia donde te interesa ir. O hacer actividades de la vida diaria. Tenemos allí un apartamento completamente amueblado y Xavier lo que hacía era, por ejemplo, prepararse un té. Entonces era capaz de identificar por dónde estaba el paquete del té, dónde estaba el cazo, dónde estaba cada una de las cosas. Y aunque eso, por ejemplo, muchas veces, y me consta que vosotros podéis preparar un té sin ningún problema.
Estela Landrove: Perfectamente.
Eduardo Fernández: O sea, no tenéis problema para eso, no es un problema. Pero en este caso era con ayuda visual. O sea, no solo teníamos que compartir.
Estela Landrove: Teníamos que dejar el tacto al margen.
Eduardo Fernández: O no solamente acordándose de dónde se habían dejado los objetos. O, por ejemplo, cosas que pueden.
Estela Landrove: Seguro que le poníais trampas.
Eduardo Fernández: Le poníamos trampas, sí, porque alguna de las cosas era muy difícil, sí, sí, recuerdo una de las estudiantes que está con nosotros, Dorota, una de las veces le puso la caja del té dentro del fregadero, cosa que no es fácil que tú vayas a buscar la caja dentro del fregadero, pero dice a ver si la encuentra, y la encontró.
Estela Landrove: Eso significa que el experimento está funcionando.
Eduardo Fernández: Sí, lo que pasa es que son patrones muy simples y estamos un poco, estamos empezando. Ahora mismo lo que intentamos es una prueba de concepto de que esto puede llegar a funcionar y tenemos que hacerlo además en colaboración con vosotros, con las personas que tenéis problemas visuales importantes y es algo que creo que tenemos que desarrollar juntos. Cada vez conocemos más, cada vez comprendemos y somos capaces de inducir percepciones más complejas, pero al final va a ser cuestión de que entre todos lleguemos a conseguir desarrollar herramientas que puedan ser útiles.
Estela Landrove: Y esto es la única manera que hay de estimular esa corteza visual, es desde el interior ¿verdad? ¿Desde el exterior es imposible?
Eduardo Fernández: Desde el exterior es imposible por la resolución, claro, porque lo que necesitamos es tener una gran resolución. De hecho, por ejemplo, actualmente hay una empresa en Estados Unidos que se llama Second Sight y lo que está intentando es poner como electrodos en la superficie del cerebro. El problema de esto es que la resolución es más pequeñita porque los electrodos tienen que ser más grandes. Además, necesitan mayores cantidades de corriente, del orden de mil veces más que cuando los electrodos son como agujitas que se meten dentro del cerebro. Tiene más resolución cuando lo hacemos así y somos capaces de que las personas sean capaces de utilizar esa información de una forma más fácil, porque si no es como una nube, se ve en bultos, pero es difícil decir incluso la forma realmente lo que se percibe, pero vamos, estamos abiertos e igual en el futuro son capaces también de conseguir, están trabajando mucho y las aproximaciones que tiene la verdad que son muy muy interesantes y pueden ser complementarias o en algunas personas pueden funcionar bien, ¿por qué no?
Estela Landrove: Quizá eso de tener que meterse unos electrodos en el cerebro hay muchas personas que les dé un poco de miedo y eso os complique un poquito la investigación, pero siempre ha habido valientes en esto de la investigación que se quieran arriesgar y las personas que tengan que probar esta técnica, Eduardo, ¿tienen que tener alguna característica determinada? ¿Pueden ser ciegos de nacimiento? ¿Es necesario que hayan visto previamente?
Eduardo Fernández: Pues mira, actualmente a nivel científico lo que pensamos es que hay un periodo que se llama periodo crítico y es cuando el cerebro se acostumbra a procesar información visual. Ese periodo crítico ocurre cuando somos pequeños y a partir de... si no has visto antes de los 9 o 10 años de edad, pues se supone que no vamos a ser capaces de percibir, pero yo ya empiezo a dudarlo porque, por ejemplo, tenemos un paciente que de hecho fue un paciente de la doctora que la conoces, Arantxa Alfaro, y esta era una persona que además acude a consulta de neurología por otra causa y Arantxa se da cuenta de que era ciego, le pregunta qué le pasa y resulta que nació con una catarata congénita. Como además tenía un cierto retraso mental y tenía atrofia a nivel cerebral pues en aquel momento le dijeron que no se podía hacer nada y ni siquiera no se plantearon siquiera quitarle la catarata, pero más adelante cuando ya tenía 30 y muchos, pues un oftalmólogo lo vio y dice, como que no, le quitaron la catarata y esta persona ve.
Entonces se supone que no debería ser capaz, pero sí, y no es el único caso, me consta que hay más. Entonces probablemente todo es más complejo de lo que pensábamos y la plasticidad o la capacidad de adaptación del cerebro también es superior a lo que pensábamos hasta hace relativamente poco entonces igual en el futuro pues también podría ser posible, aunque también es verdad que yo conozco pues a muchas personas ciegas congénitas y tampoco lo necesitan realmente.
Estela Landrove: Bueno, bueno, deja, deja, que a nadie le amarga un dulce Eduardo. No nos importaría ver, aunque fuera bultos, yo se lo decía a Eduardo, me decía son bultos no te pienses que son imágenes, digo me da igual, digo si eso me vale, digo eso de poder ir sin el bastón por ejemplo pues oye, lo que sea bueno es, bienvenido sea. Y otra cosa que me estaba planteando esas percepciones que tienen son en color en blanco y negro ¿esto cómo se percibe?
Eduardo Fernández: A ver hasta ahora prácticamente casi todas son en blanco, blanco y negro, aunque es verdad que a veces se ve como un poquito más anaranjado o amarillento…
Estela Landrove: ¿Y eso de qué depende?
Eduardo Fernández: Pues estamos estudiándolo porque todavía no sabemos muy bien de qué depende. En cierta forma está relacionado con la intensidad, con los parámetros de estimulación que utilizamos, pero la relación no está tan clara porque a veces lo repetimos y no es exactamente así. Digamos, mayoritariamente son en blanco y negro.
Estela Landrove: ¿Cuál es el sentir de los implantados? ¿Qué os dicen? ¿Qué os transmiten?
Eduardo Fernández: Bueno, todos, la verdad, es que están muy muy contentos. Nosotros estamos muy agradecidos por su generosidad y por haber participado en estos experimentos y lo que nos transmiten es que hay que seguir hacia adelante y desarrollar un sistema. Por ejemplo, una de las limitaciones que tenemos actualmente es que el sistema lleva cables. Al final hay como un conector en la cabeza y tenemos que ser capaces de quitar estos cables y hacer una tecnología que ya estamos trabajando en ello, pues más similar por ejemplo...
Estela Landrove: Por bluetooth o algo así, ¿no?
Eduardo Fernández: Es más similar a los implantes cocleares, porque es una tecnología al final es muy parecido, un implante coclear es algo parecido, pero en lugar del sistema visual al sistema auditivo. En este caso lo que pasa es que necesitamos más canales de información, es un poquito más complejo, pero afortunadamente la tecnología ya es capaz de resolver eso y estamos trabajando, aunque no tenemos ningún sistema todavía desgraciadamente pues para empezar a hacer estudios en humanos, estamos en fase de desarrollo.
Estela Landrove: Hemos oído recientemente también, creo que es un caso muy parecido al que trabajáis vosotros, una persona con problemas medulares que le habían implantado también en el cerebro, supongo que, en la zona, en este caso, que le permitía andar a esta persona y que ha podido levantarse, supongo que lo habrás leído, ha salido también en todos los medios. Imagino que es una cosa similar a la vuestra.
Eduardo Fernández: Es muy parecida y de hecho, por ejemplo, en Estados Unidos estamos colaborando, estamos en contacto con grupos que están haciendo, utilizando exactamente la misma tecnología que tenemos nosotros pero en otra zona de cerebro que se encarga de la parte más motora y los resultados son espectaculares. Tienes pacientes tetrapléjicos que no se pueden mover y no pueden mover del cuello para abajo y muchas veces tienen también otros problemas y son capaces de levantarse son capaces, por ejemplo, ahora una de las revoluciones que están teniendo es que están conectados, conectan su cerebro directamente a dispositivos artificiales, a brazos robóticos, pero esos brazos robóticos tienen sensores también y la persona nota que toca cosas. Claro, porque lo que haces es que mandas información a la parte del cerebro.
Estela Landrove: Y estimulas el nervio, claro.
Eduardo Fernández: Estimular directamente la parte del cerebro que se encarga de la percepción, de la percepción táctil y la persona dice, noto que me estás tocando por aquí y que me estás tocando por el otro lado y además eso es muy importante por ejemplo en el caso de los miembros artificiales porque uno de los problemas que tenían hasta ahora imagínate pues te dan la mano y una abrazo una mano robótica no sabe si hace mucha fuerza o hace poco los sistemas artificiales pueden hacer mucha y te pueden hacer incluso daño o por ejemplo si coges un vaso de plástico tienes que hacer poca fuerza porque lo rompes. Entonces ahora ya son capaces las tecnologías de tener retroalimentación, de ser capaz de sentir qué es lo que estás tocando y eso está empezando a ser una revolución.
Estela Landrove: Estamos hablando de futuribles. En el caso de vuestro proyecto, Eduardo, ¿cuántos años nos faltan?
Eduardo Fernández: Pues no lo sabemos.
Estela Landrove: Así aventurándote. (entre risas)
Eduardo Fernández: Yo creo que siempre estamos hablando a medio plazo por lo menos, poco a poco se van a ir desarrollando sistemas cada vez más completos pero que desgraciadamente todavía está en fase experimental. Los logros de momento son muy prometedores y por nuestra parte desde luego vamos a poner todo lo que esté todo lo que podamos a intentar para avanzar lo más deprisa posible, pero repito que es importante avanzar poco a poco y no crear falsas expectativas, porque ya ha pasado, por ejemplo, en el caso también de las prótesis a nivel de los sistemas a nivel de la retina, que ya se están empezando a abandonar, quizás probablemente las expectativas eran muy altas y los sistemas eran demasiado simples para esas expectativas tan altas, entonces yo creo que tiene que ir un poco a la par.
Estela Landrove: Precisamente para que no se abandone, para que ese trabajo que está desarrollando, ¿un grupo de cuántas personas aquí en España?
Eduardo Fernández: Uf, en nuestro grupo somos, yo creo que actualmente, casi 20 personas.
Estela Landrove: 20 personas que están trabajando ahí día a día. Y aquellos voluntarios que han querido adherirse a este proyecto que están implantados durante ¿6 meses?
Eduardo Fernández: 6 meses. Y a los 6 meses se los quitamos.
Estela Landrove: ¿Y cómo se quedan?
Eduardo Fernández: Igual que estaban antes.
Estela Landrove: No, quiero decir de ánimos. (se ríe)
Eduardo Fernández: De ánimos bien, porque lo que más nos está costando es encontrar personas que entiendan que esto es investigación y que además sean conscientes que se lo tenemos que quitar, porque claro, si tienen que pasar estudios psicológicos complejos, pruebas, muchas pruebas un poco para que estemos seguros que si se lo quitamos no se van a deprimir ni van a coger… no causarles ningún mal ya que están colaborando con nosotros lo que no podríamos consentir…
Estela Landrove: Que se queden peor de lo que estaban, anímicamente me refiero.
Eduardo Fernández: Claro, y entonces hasta ahora afortunadamente todas las personas se lo han tomado muy bien, lo entendían perfectamente y lo que sí que nos dicen es para cuando algo mejor.
Estela Landrove: Pues sí, la verdad es que estoy de acuerdo con ellos. Esa es la pregunta del millón. Eduardo. ¿Cuál es la mayor satisfacción que te ha dado este proyecto en el que estáis inmersos ahora?
Eduardo Fernández: Bueno, nos ha dado muchas satisfacciones porque...
Estela Landrove: Pero una que hayas dicho, ostras, esto sí que no me lo esperaba yo.
Eduardo Fernández: La primera vez, por ejemplo, con Berna, que fue la primera persona que se lo pusimos, cuando pusimos el sistema completo ya con la retina artificial y le dijimos, mira a ver si encuentras el borde entre la línea blanca y la línea negra. Y fue con el dedo derecho a tocar la línea, no nos lo creíamos ninguno de los que estábamos allí. Ella decía, sí, está aquí, está aquí. Claro, ella no lo veía pero todos los demás sí que lo veíamos y fue impresionante yo no me esperaba primero que no me esperaba que funcionara a la primera, porque eso fue exactamente la primera vez que lo intentábamos y con ese nivel con esa resolución fue increíble y a partir de ahí hemos ido haciendo consiguiendo cosas que son muy espectaculares, pero que claro tampoco resuelve los problemas que tenéis ahora muchas personas con discapacidades muy importantes, pero yo creo que estamos en el camino.
Estela Landrove: Si algo me gusta cada vez que hablo con Eduardo, es que nos pone a todos los pies en el suelo y nos dice que esto está en investigación que hay que ir pasito a paso, no se pueden crear falsas esperanzas, falsas expectativas, no queremos hacer daño a nadie, todo lo contrario, sino que queremos divulgar, que sepáis que esto se está haciendo, pero, como diría aquél, piano piano, con mucha tranquilidad y sabiendo dónde tocamos en cada momento Eduardo.
Eduardo Fernández: Pues así es y yo creo de hecho ahora que has dicho piano piano, uno de nuestros estudiantes es italiano y él dice que va piano va lontano y al final eso cuando vamos lentos pues podemos llegar más lejos.
Estela Landrove: Bueno pues no vayáis demasiado lentos tampoco, que yo aspiro a poder probarlo de aquí a unos años, me va a pillar un poco mayor ya.
Eduardo Fernández: Te tomamos la palabra ahora mismo.
Estela Landrove: Ha sido un placer contar contigo aquí en nuestro podcast, en Arroba Sonora, como siempre presto y dispuesto a contarnos todas las novedades que se producen allí en el Instituto de Bioingeniería de la Universidad Miguel Hernández. Algún día nos tendrás que contar, Eduardo, además de este proyecto de visión artificial, qué más cosas estáis haciendo por allí. Porque me consta que esto no es lo único en lo que estáis trabajando.
Eduardo Fernández: No, no. Tenemos, por ejemplo, la cátedra de investigación en retinosis pigmentaria Bidons Egara, y ahí tenemos varios proyectos encaminados un poco a enfermedades degenerativas de la retina, fundamentalmente retinitis o retinosis pigmentaria. Y pues tenemos proyectos desde nuevas formas de terapia génica hasta, a veces, por ejemplo, pues en muchas de las formas de retinosis pigmentaria es muy difícil arreglar todos los genes que desgraciadamente están mal y estamos colaborando ya con laboratorios farmacéuticos con una aproximación que me parece muy prometedora que es, en lugar de arreglar los genes, evitar que estos hagan digamos los efectos perjudiciales, es bloquear la información de los genes malos.
Estela Landrove: Pero eso tiene que ser con mucho, con mucha prevención y con mucho tiempo de anticipación, imagínate.
Eduardo Fernández: Eso lo estamos haciendo ya en modelos animales de enfermedades, distintas enfermedades degenerativas de la retina, en colaboración con una empresa que tiene la sede aquí en Madrid, se llama Silentis, y los resultados son preliminares, pero solamente en animales de investigación, pero muy muy prometedores.
Estela Landrove: Si lo sabía yo que Eduardo, y porque no le he preguntado más cosas, sino os cuenta pues de cuestiones que os sorprenderían prácticamente a todos. No te quiero quitar más tiempo, podría tenerle ahí durante hora y media más o menos preguntándole cosas, pero claro también entiendo que el hombre tiene sus compromisos y nos ha sacado un huequecito en su agenda para compartirlo con todos nosotros. Un placer, Eduardo, y síguenos informando porque estaremos muy atentos a este y todos los proyectos que lleváis a cabo desde el Instituto de Bioingeniería y desde la Universidad Miguel Hernández. Muchísimas gracias.
Eduardo Fernández: El placer es mío, muchísimas gracias. Y ya sabes que puedes contar conmigo para todo lo que quieras y para siempre.
(Sonido musical del programa)
(Sonido musical con la sintonía de Novedades de iOS)
Novedades de iOS
Estela Landrove: Nos lo habéis pedido a través de correo electrónico, a través de mensajes a nuestro WhatsApp, queréis que os contemos las novedades que incorpora iOS 17. A mitad del mes de septiembre, Apple nos tiene acostumbrados a sacar los nuevos dispositivos, los que se van a vender estas navidades, y, además, nos trae un nuevo sistema operativo que tiene algunas novedades. Pues esas novedades nos las va a contar Moisés González, que le hemos sacado del Observatorio de Apps y le hemos traído a las novedades de iOS para que os ponga al tanto, a vosotros y a mí, de las novedades. Novedades en cuanto a accesibilidad y alguna que otra que no tiene que ver con accesibilidad, pero que también es muy interesante. ¡Muy bienvenido!
Moisés González: Hola Estela, ¿qué tal?
Estela Landrove: Deseando que nos cuentes esas novedades. Lo primero que a mí siempre me gusta decir es ¿qué dispositivos se van a quedar fuera de esta actualización a iOS 17? Que no significa que no se vayan a poder utilizar, sino que bueno, pues ya no van a poder contar con las nuevas características de esta nueva versión 17.
Moisés González: Pues sí, por hacerlo fácil si quieres te puedo decir que a partir del XR y XS, estos incluidos, se podrán actualizar, pero de ahí para abajo ya no. De todas formas, si quieres te relato la lista de...
Estela Landrove: Venga, así de forma rápida.
Moisés González: Pues mira, el XR, el XS, el 11, con sus variantes PRO y demás, el 12, el 13, también con sus variantes MINI, igual que el 12, PRO, PRO+, y todo, el 14 también, por supuesto, el iPhone S de segunda y de tercera generación, no el primero.
Estela Landrove: Bueno, que el primero nos ha aguantado ahí un montón de años.
Moisés González: Sí, sí, el 2016 creo que es el primero, el 2016 creo que es. Así que el segundo que es de 2020 y el tercero que es de 2022, sí se podrán actualizar. Y eso, y el XR y el XS son los dispositivos más antiguos que se van a poder actualizar.
Estela Landrove: Muy bien, perfecto. Pues ahora ya, sin perder más tiempo, Moi, porque todo el mundo lo está esperando. Las novedades que incorpora esta versión de iOS no son especialmente llamativas como pudo ocurrir con iOS 16 ¿verdad?
Moisés González: No, la verdad que, bueno, para mí hay una que sí que a lo mejor… que todavía no está en español, pero sí tiene su relevancia, a lo mejor no para personas con discapacidad visual exactamente, pero si tienen su relevancia que ahora la comentaremos. Pero es cierto que no viene cargado de novedades. Tiene algunas interesantes, que ahora comentaremos, pero no es un cambio radical, ni en la interfaz, ni en novedades.
Estela Landrove: Se recomienda la actualización, porque ya sabemos que hay ocasiones en las que algunos decidimos esperarnos a que salga la 17.01, la 17.02, para que esos pequeños errores que pueda haber se vayan puliendo. A fecha de la grabación de Arroba Sonora estamos en la 17.0, pero claro, probablemente cuando alguno de vosotros lo estéis escuchando ya tengamos la 17.01 o la 17.02.
Moisés González: Si, a ver, yo en cuanto a si se recomienda o no, depende un poco supongo del tipo de usuario, si eres un usuario que te gusta experimentar o cacharrear, como se suele decir, pues sí, porque no tiene ningún error grave o invalidante que digas…
Estela Landrove: Que no se nos va a quedar el teléfono colgado, como pasaba hace ya algunos años, ni…
Moisés González: Si, recuerdo, por ejemplo, no sé qué iOS era, tenía algún problema con el teléfono, recuerdo que era una cosa impresionante. Esta no tiene, o por lo menos no hemos descubierto ningún error invalidante. Sí que tiene algunos errores, por ejemplo, con el teclado braille, que lleva yendo mal un tiempo. Por ejemplo, alguna gente ha reportado, en mi caso no pasa, pero alguna gente ha reportado que el gesto de enviar no termina de funcionar bien y, bueno, algunos errorcillos hay, pero no hay ninguno invalidante.
Así que, si eres una persona que eres curioso y tienes ganas de actualizar, no vas a tener problemas serios. Y si estás cómodo y prefieres todavía esperar un poco más, pues eso.
Estela Landrove: Pues esperas (entre risas). Déjame decir a todos los oyentes que, por lo que sea, sean nuevos en IOS o sean nuevos en Arroba, que una vez que se actualiza el dispositivo a la última versión, ya no hay vuelta atrás.
Moisés González: Nada, ya para adelante como los de Alicante.
Estela Landrove: Eso es, nos tenemos que quedar ahí con lo bueno o con lo malo. Así que pensadlo dos veces por si acaso. Bien, Moi, novedades que nos trae esta versión 17.
Moisés González: Vamos a empezar por una novedad que no está todavía en español, supongo que llegará, pero puede ser bastante llamativa y se llama voz en tiempo real. Básicamente lo que podemos hacer con esta característica es clonar nuestra propia voz. Apple lo piensa más bien para personas que a lo mejor tengan alguna enfermedad degenerativa que les vaya a producir y que no vayan a poder hablar en un futuro, entonces tienen que hacer unas grabaciones bastante largas, por cierto, son 150 frases que tienes que grabar con poco ruido, por supuesto. Apple de hecho te hace unas pruebas primero con el micrófono a ver y tal y lo que hace es clonar tu voz. Como digo está todavía en inglés, pero entiendo que en algún momento llegará y puede ser bastante llamativo.
Estela Landrove: Lo que estaría bien es que pudiéramos utilizar nuestra propia voz como propia síntesis del dispositivo.
Moisés González: Sería curioso, aunque yo la mía no la usaría.
Estela Landrove: O la voz de alguien que nos guste.
Moisés González: Sí, estaría curioso. Pero bueno, ya es un paso. El tema de clonar la voz que ahora está... hay ya servicios con los que se puede hacer muy bien.
Estela Landrove: Si, si. Nosotros hemos hablado de esto en Arroba. A mí ya me la han clonado, o sea que ya estoy perdida.
Moisés González: Estamos aquí en el CTI, tenemos unos cuantos clones ya, y muy bien hechos Así que sí, creo que es una cosa bastante llamativa, a mí por lo menos me llamó la atención cuando la vi.
Estela Landrove: Esta tendremos que esperar un poquito.
Moisés González: Si, aquí en España, la característica la tienes ya si la quieres usar, lo que pasa que vas a tener que leer… todas las frases por ejemplo están en inglés, vas a tener que leer en inglés y tu pronunciación entiendo que será inglesa. No sé cómo lo harán.
Estela Landrove: Aunque tú le pongas castellano te pronunciara en inglés.
Moisés González: Supongo que si.
Estela Landrove: Será como cuando tienes la detección de idioma activada que empiezas a leer… (pone acento inglés), pues será una cosa parecida.
Moisés González: Entiendo que si.
Estela Landrove: Seguimos, más novedades.
Moisés González: Vale, la siguiente, acceso asistido. Acceso asistido, básicamente lo que podemos hacer con esto es que nuestro launcher del iPhone, nuestro escritorio, nuestra pantalla de inicio, se simplifique con las aplicaciones que nosotros queramos, por ejemplo, imagínate que tenemos un familiar mayor, que no se aclara mucho y tiene un montón de aplicaciones que no utiliza. Vale, pues tú en tu pantalla de inicio vas a tener solo teléfono, Google y Apolo.
Estela Landrove: Y WhatsApp.
Moisés González: o WhatsApp, por ejemplo. Entonces lo que haces con esta característica es la configuras de manera que añades esas aplicaciones. Hay que decir que no todas las aplicaciones son compatibles. El desarrollador tiene que hacer ciertos ajustes para que pueda ser compatible con esta característica.
Estela Landrove: Esto supongo que será como lo del modo claro o el modo oscuro, que hay aplicaciones que lo cogen y otras que no.
Moisés González: Entiendo que sí, no sé exactamente qué tan complicado será hacerlo o no, la verdad que no lo sé, pero no todas van a estar y cuando alguien vaya a configurar va a decir, oye, pero aquí me faltan aplicaciones, si porque no todas están, las de Apple si, entiendo que todas, no sé si todas, pero entiendo que si, y algunas de terceros también están ya. Así que eso entonces lo que podemos hacer es eso, nos van a aparecer en el escritorio las que tengamos configuradas y, a su vez, también las aplicaciones se simplifican, es decir, por ejemplo, entras en teléfono y no vas a tener todas las opciones que tienes, solo los contactos que quieras y ese tipo de cosas.
Estela Landrove: Esto le va a ayudar mucho a personas que se líen con el dispositivo móvil, va a ser un avance súper importante.
Moisés González: Si, la verdad que si. Esta, recuerdo cuando pusimos la primera beta iba bastante mal con VoiceOver y ya va bastante bien.
Estela Landrove: Fenomenal, y tenemos más.
Moisés González: Tenemos más. Las notas, esto no es de accesibilidad como tal, pero bueno, como has dicho tú antes esto es un popurrí de accesibilidad, usabilidad, novedades en general, todo…
Estela Landrove: Lo que podamos utilizar que nos guste y que nos parezca destacable.
Moisés González: Pues las notas ahora nos permiten enlazar otras notas, por ejemplo, imagínate estoy escribiendo un artículo, un artículo para publicar en mi blog, por ejemplo, y resulta que quiero que desde esa nota haya un enlace que me enlace a otra nota que tengo yo con más datos. Entonces le puedo añadir ese enlace y yo podré pinchar y me llevará a otra nota, a esa otra nota.
Estela Landrove: No tendremos que andar buscando en notas la que nos interesa.
Moisés González: Sobre todo eso. Sobre todo, si son notas que están relacionadas entre sí podrán enlazarse y crear un enlace de notas. También puedes añadir información de contacto, en la propia nota puedes adjuntarla, digamos, informaciones de contacto y demás.
Estela Landrove: Bueno, poquitas cosas, pero son útiles. Y luego en cuanto a accesibilidad pura y dura tenemos una que también es muy interesante.
Moisés González: Si, tenemos en lupa, ya sabéis que en iOS 16 se puso detección de puertas, de personas, demás.
Estela Landrove: Si que solamente era compatible con aquellos dispositivos que tenían lidar, si no me equivoco.
Moisés González: Si, correcto, bueno eso sigue siendo así.
Estela Landrove: O sea que lo que nos vas a enseñar solamente es para todos aquellos que dispongan de iPhone 12 Pro y posteriores.
Moisés González: Sí, todos los dispositivos que tengan lidar. Porque efectivamente este año que han salido los nuevos iPhone, solo los Pro tienen lidar también. Sigue siendo igual, los 15 Pro y los Pro Max son los que tienen lidar.
Estela Landrove: Bueno, si lo queréis, os tenéis que rascar un poquito el bolsillo.
Moisés González: Un poquito, sí. Aunque este año creo que no han subido los precios, que ya es una cosa decir...
Estela Landrove: Quieres decir que no han subido los precios más. (entre risas)
Moisés González: Claro, creo que sí, que no lo han subido más, quiero decir que ya se rumoreaba que iban a subir y bueno, parece que incluso alguno está un pelín más barato. O sea que bueno.
Estela Landrove: Bueno, algo es algo.
Moisés González: Todavía tendremos que dar gracias y todo.
Estela Landrove: Vamos a contar la característica que nos enrollamos Moi y no la contamos.
Moisés González: Vale, pues son dos las que han añadido, detección de texto y apuntar y hablar. Apuntar y hablar yo creo que más bien está enfocada a personas con baja visión y básicamente lo que puedes hacer es, tu enfocas con la cámara del iPhone a un cartel, por ejemplo, lo señalas con el dedo y el iPhone te va a leer ese texto. En teoría también podría servir para algo táctil, por ejemplo, una lavadora táctil, apuntas con el dedo al control y en teoría te lo debería decir, pero yo no he obtenido, bueno, yo particularmente no veo nada (se ríe), no he obtenido buenos resultados y he probado con gente de baja visión y tampoco ha terminado de ir fino.
Entonces no sé si es que tenemos un pulso muy malo o no, no sé, pero no nos ha terminado de ir muy fino. Y luego tenemos también la detección de texto que básicamente esto es lo que hace como puede hacer Seeing AI o cualquier aplicación de este tipo. Enfocas la cámara al texto y te lo lee directamente. Vamos, si quieres podemos hacer una prueba.
Estela Landrove: Pero eso ya lo hacía también con fotos ¿no?
Moisés González: Si, pero ahora lo tienes en los modos de detección. O sea, directamente si tu estas, por ejemplo, en la pantalla de inicio, le das tres toques con cuatro dedos, (suena el lector de pantalla) se te abre la lupa. Vale, entonces tenemos aquí... Estos son los que ya estaban.
Lector de pantalla: Descripciones de imágenes, no. Detección de texto, sí.
Moisés González: Detección de texto, sí. Si le doy aquí pues se desactiva. Pero bueno, vamos a intentar leer algo. Por ejemplo...
Lector de pantalla: Texto. Texto al revés.
Estela Landrove: Y encima nos dice que el texto está al revés, dale la vuelta, Moi.
(El lector de pantalla continúa hablando)
Estela Landrove: Muy bien es que yo creo que te está leyendo en italiano.
Moisés González: Si, porque esta mascarilla debe estar en varios idiomas…
Lector de pantalla: (sigue leyendo en otro idioma) No se ha detectado texto.
Moisés González: Vale, pues esto es lo que leen en una mascarilla, es un paquete de una mascarilla. De hecho, esta misma mascarilla que hice yo la prueba antes para leerla, me la leyó casi perfecta. De hecho, me la leí yo primero en español y luego en italiano.
Estela Landrove: Bueno, pues ahora no. Pero para hacernos una idea.
Moisés González: Pero esta es la idea. Básicamente es como puedes hacer con Seeing AI, por ejemplo. Lo que pasa que no tienes que instalarte otra aplicación y tienes un acceso directo digamos desde cualquier parte.
Estela Landrove: Perfecto y ¿alguna cosita más?
Moisés González: Algo más hay por ahí, si algo más y además algo más interesante.
Estela Landrove: Interesante.
Moisés González: Si, te voy a comentar la que yo no he descubierto hace mucho, o sea, la descubrí hace bastante poquito y es una de las que más me gustan, creo. Resulta que en los recordatorios tenemos tres modos de listas ahora, lista normal, inteligente y lista de la compra. Cuando haces una lista de la compra y pones, por ejemplo, pollo, le das a intro y dice pollo añadido a carne. Pones, por ejemplo, yo que sé, yogur, yogur añadido y se te añade directamente, se te va creando como categorías.
Estela Landrove: Categorías.
Moisés González: El automáticamente te las va añadiendo. Si, por ejemplo, no estás de acuerdo con alguna la puedes modificar.
Estela Landrove: Eso está bien porque hay veces que vas apuntando según se te ocurre y luego vas a comprar y tienes que dar 18 vueltas porque por un lado aparecen primero los yogures y a lo último a lo mejor te aparecen las cuajadas.
Moisés González: Exacto, entonces está muy bien porque te organizas mucho mejor si vas al supermercado, te organizas mucho mejor. Si estoy en los lácteos, pues compro todos los lácteos a la vez.
Estela Landrove: Sí, sí, es interesante.
Moisés González: Y, además, cuando tienes ya la lista hecha, te aparecen como casillas de verificación, no recuerdo exactamente la interfaz, y cuando las marcas se desaparecen. Como completadas se desaparecen.
Estela Landrove: Y ya están, como que ya las hemos hecho. De hecho, tenemos una oyente, Nuria, que nos comentaba que ella utilizaba mucho la opción lista de la compra en iPhone antes de que esta nueva versión de iOS estuviera. Así que, supongo que, le va a gustar estas nuevas opciones, la utilizaba y lo compartía con la gente de su entorno, con los dispositivos que tenía conectados a su ID de Apple y decía que era súper cómodo. Pues ahora Nuria mira, más cómodo todavía.
Moisés González: Sí, la verdad que está muy bien, ya te digo yo, me he sorprendido bastante. Siri, ahora le podemos modificar la velocidad de la voz.
Estela Landrove: Ay que bien.
Moisés González: Si. Yo a este, por ejemplo, se la he modificado. Luego hay bastantes novedades más pequeñitas, pero bueno, así yo creo que son las principales, si no se me olvida ninguna. Los widgets, por ejemplo, ahora son interactivos, entonces podemos interactuar con aplicaciones sin entrar en ellas, que bueno, para algunas cosas puede venir bien, pero así de importante yo creo que esto más o menos es lo que hay.
Estela Landrove: Moi, pues estas han sido las novedades de iOS 17 que nos has traído, seguiremos muy pendientes y volveremos a charlar contigo cuando tú quieras.
Moisés González: Perfecto, pues nada, aquí estaremos para lo que guste mandar, que se dice, ¿no? Por cierto, déjame decir que, para los oyentes que no vayan a actualizar todavía o quieran profundizar más en las novedades que hemos comentado aquí, la mayoría de ellas, si siguen el canal de AliBlueBox en YouTube, yo creo que están casi todas documentadas allí. Tiene vídeos de casi todas las novedades, así que nada, para quien los quiera ver la verdad que están muy interesantes los vídeos.
Estela Landrove: Muchas gracias a ti Moi por haberla nombrado, porque creo que reconocer el trabajo de otros pues también nos honra. Muchas gracias.
Moisés González: A ti.
Estela Landrove: Hasta luego.
Moisés González: Adiós.
(Sonido musical del programa)
Escuchando Arroba Sonora
(Sonido musical con la sintonía de Arroba Responde WhatsApp)
Arroba Responde WhatsApp
Estela Landrove: Y llega a vuestro tiempo, el que más nos gusta, el de escucharos a todos aquellos que habéis dejado notas de voz a través del 667 14 87 49. Notas en nuestro WhatsApp muchos de vosotros habéis querido participar en nuestro concurso, ya sabéis que regalamos una suscripción para Sonora, pero en esta ocasión lo que vamos a hacer es regalar dos suscripciones, anunciábamos que una, pero van a ser dos, que estamos generosos. Vamos a escuchar vuestros mensajes y os agradecemos a todos que hayáis tenido un ratito para mandárnoslos.
Oyente 1: Hola Arroba Sonora, habla Marcos de Tenerife. El blog de Olga Carreras se llama Usable y Accesible.
Oyente 2: Soy Miguel Ángel Lorenzo y la respuesta para el concurso, Usable y Accesible. Que paséis un buen verano y en septiembre os volveremos a escuchar. Saludos.
Oyente 3: Soy Enrique Montoro y antes de que se me vaya de la olla Usable y Accesible de nuestra amiga Carreras. Bañaros que hace calor, beber agua y refrescos. Un saludo para todos y hasta septiembre.
Oyente 4: Hola a todo el mundo que hace posible Arroba Sonora mi nombre es Anabel Enbravo, y, por cierto, enhorabuena, porque al final lo hemos conseguido y Arroba va a ser bimensual, lo cual es genial. La respuesta a vuestra pregunta es que el blog se llama Usable y Accesible.
Oyente 5: Hola a todos soy Cristina de Asturias y quería decir que el blog de Olga Carreras se llama Usable y Accesible. Y nada, me alegro mucho que la revista vaya a ser bimensual y que podamos disfrutar de un contenido estupendo como es esta revista. Que tengáis todos un buen verano y un saludo a todos.
Oyente 6: Hola, muy buena, soy Jorge García Durán desde Málaga. Bueno, antes que nada, me alegro mucho que al final la periodizad de este interesante podcast va a ser bimensual, así que vamos a tener que buscar un huequecillo más para seguir aprendiendo gracias a vosotros. La respuesta es el blog de Olga Carrera se llama Usable y accesible. Es muy interesante, por cierto. ¡Un saludo!
Oyente 7: Hola, muy buenas, ¿qué tal?, ¿cómo estáis? Hago este audio para participar en Arroba. La respuesta a la pregunta de cómo se llama el blog de Olga Carreras es Usable y Accesible. Saludos.
Oyente 8: Mi respuesta para la pregunta de la última edición de la revista Sonora. La respuesta es el blog de Olga Carreras, Usable y Accesible. Muchas gracias, felicidades por tu nuevo número y me alegro que sea bimensual.
Oyente 9: En primer lugar, para decir el nombre del blog, Usable y Accesible. Muy interesante. Y ahora me pregunto cómo va a ser este nuevo formato bimensual de la revista Arroba. Me imagino que habrá que cambiar o reducir algún contenido, ya que el sistema Braille no podrá ir toda esta información que recibimos de forma oral. Bueno, esperamos la creación del futuro formato, contenidos y demás. Muchas gracias, Gregorio desde Tenerife.
Oyente 10: Soy Rubén, un fiel oyente vuestro. En primer lugar, dar las gracias por la revista, como siempre digo cuando mando notas de voz. A mí me gustaba la periodicidad como estaba antes, pero bueno, si ya empieza cada dos meses, mejor. Decir que el blog se llama Usable y Accesible, que nunca lo había oído hasta este número de la revista, bueno del podcast.
Oyente 11: La respuesta para el concurso del número 31 acerca del blog de Olga es Usable y Accesible. Mi nombre es Raúl y, bueno, espero tener más suerte esta vez. Venga, hasta luego.
Oyente 12: Hola a todos los Arrobenses. La respuesta al concurso es Accesible y Usable. Un cordial saludo. Soy Guadalupe Martínez de Sevilla.
Oyente 13: Buenas tardes, mi nombre es Javier Candero y quiero felicitaros por este podcast que hacéis y celebrar el que a partir de ahora vaya a ser bimestral. La respuesta del concurso de este mes es el nombre del blog Usable y Accesible.
Oyente 14: Soy Miguel Ángel de Zaragoza. La respuesta al concurso es el blog de Usable y Accesibilidad. Venga, gracias por la revista y os escucho desde hace mogollón de tiempo. Venga, besicos, adiós.
Oyente 15: Hola, arroba sonora, soy Camilo Martínez con los ojos del alma desde Río Negro, Antioquia, en Colombia, cerca de la ciudad de Medellín. El episodio 31 de junio de 2023 en el que mencionan el blog, el blog es Usable y Accesible. Un abrazo, Dios los bendiga, Camilo Martínez con los ojos del alma.
Oyente 16: Saludos y salud para todos. Soy Pedro Aguilera de Jerez. La respuesta de la pregunta planteada en el número 31 de Arroba Sonora es la siguiente. El blog de Olga Carreras se llama Usable y Accesible. Un saludo para todos, gracias.
Oyente 17: Hola Arroba Sonora, soy Javier de Pontevedra, pero bueno, bueno, bueno, vaya alegría que nos has dado Estela, esto sí que hay que felicitarte a ti y a tu equipo, porque es maravilloso tenerlos cada dos meses, qué barbaridad, bueno, eso ya nos ha alegrado a todos y temas no van a faltar, desde luego, porque con la inteligencia artificial y todo esto que está en ebullición total, yo preveo que en breve vamos a tener una auténtica revolución tecnológica que además nos va a beneficiar a nosotros y volver a felicitarte y darte las gracias porque eso va a ser un gran esfuerzo para ti. El concurso del blog este Usable y Accesible se llama así el blog, que es un blog que deberíamos tener todos como blog de cabecera, Usable y Accesible. Bueno, pues buen verano a todos.
Oyente 18: Es la primera vez que me pongo en contacto con vosotros y lo primero que me gustaría es felicitaros por, bueno, pues por el maravilloso podcast que siempre nos acerca la tecnología a aquellas personas que somos enamoradas de ella y por tanto agradeceros. Quería responder la pregunta, a ver si tengo suerte, sobre el concurso y creo que el blog por el que preguntáis se denomina Accesible y Usable. Un abrazo.
Oyente 19: Hola, Emilio Gálvez desde Madrid. En primer lugar, enhorabuena por la revista, que la verdad es que siempre está muy interesante. Y, en segundo lugar, el blog de Olga Carrera se llama Usable y accesible. Un saludito.
Oyente 20: Hola, muy buenas. Mi nombre es José Antonio López Prieto y primero quiero agradecer y daros la enhorabuena por tan maravillosa revista como es Arroba Sonora, legrarme de que va a ser bimensual y como siempre pues estoy muy contento por el maravilloso, por la maravillosa obra que es, y lo bien, lo perfecta que lo hacéis. El título del blog es el blog Usable y Accesible. Bueno, pues solamente me resta y perdonad mi insistencia en que por favor aboguéis porque el libro hablado de la ONCE, nuestro gestor ONCE de libros digitales sea cada vez mejor y más accesible y tengamos, por fin, como antaño un catálogo general de autores y obras. Gracias.
Oyente 21: Hola arrobeños, mi nombre es Paco Estévez de Málaga. Quería felicitaros por el magnífico podcast que tenéis y las dos buenas noticias que aparecen en el número 31. Para el concurso que proponéis, la solución es que el blog de Olga Carreras Montoto se llama Usable y Accesible. Muchas gracias y seguir publicando bimensualmente. Un fuerte abrazo.
Oyente 22: Soy Andrés Oteo de Madrid y el blog es Usable y Accesible. Muchas gracias.
(Sonido musical del programa)
Estela Landrove: Muchísimas gracias a todos los que habéis dejado esas notas de voz en el 667 14 87 49. Prácticamente todos vosotros era para participar en nuestro concurso. Se agradecen los comentarios, los ánimos y seguimos para que esto no decaiga con más contenidos aquí en este número 32.
Envíanos tus notas de voz al 667 14 87 49
(Sonido musical con la sintonía de Arroba Destaca)
Arroba Destaca Chat Bard
Estela Landrove: En Arroba Sonora estamos muy pendientes de todo lo que tiene que ver con inteligencia artificial, con tecnología, con novedades y vamos a traeros una novedad que tenemos desde hace unos meses, el chat de Google, hace también, yo creo que fueron como 4 o 5 meses hablábamos del famoso chat GPT que ya lo tenemos hasta en la sopa. Bueno pues vamos a ir a hablar ahora de Bard, que es el chat de Google en castellano porque ya llevamos un tiempo en inglés y ya por fin lo tenemos para todos los hispanohablantes. ¿Con quién vamos a hablar de este chat? Bueno pues con nuestro archiconocido ya en Arroba, Agus Aguirre, bienvenido.
Agus Aguirre: Hola, buenas ¿qué tal?
Estela Landrove: Cuéntanos qué es esto de... Bard de Google que también quiere aportar su granito de arena en esta tecnología con inteligencia artificial.
Agus Aguirre: Bueno, como estuvimos hablando la vez anterior, al final van apareciendo cada vez más cosas, sobre todo con esto de la inteligencia artificial, y cada uno tiene como su producto, ¿no? Y Google no podía ser menos, entonces nos ha traído Bard, que es B-A-R-D, que, básicamente, también un modelo de lenguaje, digamos que similar a lo que estuvimos viendo con GPT, pero con algunas diferencias. No vamos a entrar en cuál es mejor, cuál es peor, porque al final esto se trata de que cada uno pruebe…
Estela Landrove: Elija, exacto.
Agus Aguirre: Eso es, porque a mí particularmente me gusta más GPT, iremos viendo por qué, pero al final es muy relativo. ¿Cómo funciona esto? Pues es una página web al igual que ChatGPT, la web es bard.google.com hace falta tener una cuenta de google para ingresar hay que aceptar unos términos como cualquier web, marcar aceptar y poco más y se nos presenta un cuadro de edición en el cual podemos escribir una consulta y tiene el mismo tipo de dinámica que chat GPT, o sea al final es un chat. ¿Cuál es la principal diferencia? La principal diferencia es que BARD sí que tiene acceso a internet y ¿esto qué quiere decir? Quiere decir que le podemos hacer consultas de cosas actuales. Le podemos preguntar, por ejemplo, ¿qué día es? y nos va a responder la fecha actual. Le podemos preguntar por noticias, le podemos consultar por bueno por búsquedas en internet.
Al final, GPT no tiene acceso a internet, si bien estamos conectados lógicamente a través de internet, cuando le hacemos ciertas preguntas nos dice que él llega hasta tal hasta una fecha concreta y de ahí para adelante no tiene datos. Entonces si queremos información más reciente, ahí tenemos una diferencia importante. ¿Cuál es el problema? Pues el problema es que se inventan muchas cosas, entonces no nos podemos fiar un 100% de ninguna de las dos.
Pero particularmente, yo no sé si es sobre todo en español, noto que Bard se inventa mucho más. Me ha pasado de preguntarle el otro día, le preguntamos qué temperatura hacía en Madrid y nos dijo 10 grados y estábamos a 30, con lo cual tampoco nos podemos fiar.
Estela Landrove: No es muy fiable.
Agus Aguirre: No, no nos podemos fiar. Pero bueno, sí que es cierto que esa es una diferencia y es la principal. ¿Cuál es la otra? Bard es gratis. GPT tiene también suscripción, Bard por ahora, hasta donde tengo entendido no. Y es verdad que la versión gratuita de GPT, si la comparamos con Bard, a la hora de responder Bard es mucho más rápido. Y tiene algunos detalles a nivel de accesibilidad que sí que están muy bien a diferencia del GPT, por ejemplo, nos indica cuando está escribiendo, nos indica cuando ha respondido, le podemos dictar, son cositas que marcan ahí también.
Estela Landrove: Todo suma, todo suma.
Agus Aguirre: Todo suma, sí eso es. Si te parece, lo probamos.
Estela Landrove: Eso te iba a pedir, más bueno que fuéramos a ver cómo funciona.
Agus Aguirre: Pues nada, como comentaba tenemos un cuadro de edición.
Lector de pantalla: Entrada de texto de la petición.
Agus Aguirre: Entrada de texto de la petición. Y le vamos a preguntar por ejemplo qué temperatura es en Madrid.
Lector de pantalla: Madrid, Bard está escribiendo. Enviar mensaje, botón no disponible, enviar. Bard ha respondido. ¿Qué temperatura hace en Madrid? temperatura actual en Madrid es de 27 grados centígrados. El cielo está despejado.
Agus Aguirre: Bueno, yo creo que hace un poco más de calor, pero vamos a darlo por válido. ¿Qué pasa? Aquí también podemos hacer que nos lea con un TTS esta información. Hay un botón justo arriba de la respuesta que nos ha dado. Que dice escuchar. Le vamos a dar.
Chat Bard: La temperatura actual en Madrid es de 27 grados centígrados. El cielo está despejado.
Agus Aguirre: ¿Qué más? ¿Qué más nos ofrece BARD? Así de interesante. Pues que le podemos dictar. Esto para algunas personas puede ser muy cómodo porque en lugar de tener que escribir podemos preguntar alguna cosa directamente a través del micrófono. Tenemos un botón que es este, le podemos preguntar.
Estela Landrove: Pregúntale, por ejemplo, que es Arroba Sonora.
Agus Aguirre: Muy bien, vamos a preguntarle.
Lector de pantalla: Bard está escuchando.
Agus Aguirre: ¿Qué es el podcast Arroba Sonora?... Bueno no me ha tomado sonora, él ha decidido que está ahí y le vamos a dar intro.
Lector de pantalla: Bard está escribiendo. Bard ha respondido.
Agus Aguirre: vamos a dar shift h…
Lector de pantalla: ¿Qué es el podcast Arroba?
Agus Aguirre: Y vamos a ver que nos cuenta.
Lector de pantalla: Un podcast es una serie de episodios de audio que se pueden descargar y escuchar a través de internet los podcasts pueden ser sobre cualquier tema desde noticias y actualidad hasta entretenimiento y educación los podcasts se suelen crear por individuos o grupos de personas y pueden ser grabados desde cualquier lugar con una conexión a internet una vez que se graba un episodio se puede cargar.
Agus Aguirre: Bueno, ¿qué pasa? En el episodio que hablamos de GPT le hicimos esta misma pregunta, le preguntamos por arroba sonora y si bien nos dio datos que no eran ciertos, nos dio una respuesta bastante más aproximada a la realidad. Aquí nos ha dado una respuesta muy general, nos está hablando de que es un podcast y nosotros no le hemos preguntado qué es un podcast, le hemos preguntado qué es el podcast Arroba Sonora, hay una diferencia. Y Bard tiene un poco de esto.
El otro día, por ejemplo, le he pedido recomendaciones de libros y me ha pasado una cosa muy curiosa porque me ha recomendado diez libros, de los cuales los autores los ha respetado, pero los títulos se los ha inventado. Entonces, me recomendaba, por ejemplo, un libro de este año que era del autor, yo que sé, me inventó algo porque ahora mismo no me acuerdo. Dolores Redondo, y me estaba recomendando un título que no existía. Entonces claro, muy recomendable este libro porque tal, no sé qué, y te hablaba un poco ahí de la opinión de la gente, y luego lo buscabas y eso no existía.
Estela Landrove: Esto está muy bien cuando sabes de lo que estás informándote, pero cuando no tienes ni idea y le damos credibilidad a este tipo de chat entramos en una corriente un poco peligrosa.
Agus Aguirre: Eso es, al final esto donde nos agiliza sobre todo es cuando necesitamos, digo para lo que utilizo en mi caso, vamos a hablar de textos, un modelo de un mail, entonces le podemos decir que nos regale un mail de agradecimiento por un regalo, por ejemplo, se lo vamos a pedir…
Lector de pantalla: Bard está escuchando.
Agus Aguirre: Escribe un mail para agradecer un regalo.
Lector de pantalla: Escribe un mail para agradecer.
Agus Aguirre: Bueno, está cortando las peticiones, pero se lo vamos a agregar aquí al final, agradecer un regalo…
Lector de pantalla: Bard está escribiendo, Bard ha respondido, gracias por el maravilloso regalo de nombre del regalo me encanta es exactamente lo que estaba buscando me alegra mucho que hayas pensado en mí sé que tomaste el tiempo de elegirlo y eso significa mucho para mí no puedo esperar para usarlo estoy seguro de que me traerá muchas alegrías.
Agus Aguirre: Vale, quiero decir, esto no hay mucho para inventar no al final es una estructura de un texto, lo podemos modificar un poco y ya tenemos una respuesta para un mail. Entonces ¿nos agiliza tiempo? Sí, porque tardamos incluso muchísimo menos que escribirlo a mano.
Pero a la hora de buscar información hay que tener muy en cuenta que los datos que nos pueda dar no necesariamente van a ser datos fiables.
Estela Landrove: ¿De qué manera consideras, Agus, que puede ayudar este tipo de chat, tanto GPT como Bard, como todos los que puedan ir surgiendo, a las personas ciegas?
Agus Aguirre: Uy, qué buena pregunta. Yo no sé, ahora mismo, alguna funcionalidad, sin combinarla con otras cosas que pueda venir bien a personas ciegas. Es decir, al final la inteligencia artificial creo que nos puede ayudar mucho, sobre todo si metemos aquí un poco reconocimiento de imágenes y entramos en un montón de cuestiones que pueden ser muy interesantes, pero, así como tal, creo que es una cuestión a nivel general. Al final, al ser plataformas accesibles le pueden venir bien a cualquiera. Por ejemplo, para este tipo de cosas que estamos viendo, o alguna persona que tenga un poco más de relación con el mundo de la programación.
También son plataformas que ofrecen bastante en cuanto a eso. Sobre todo, volvemos a lo mismo, si uno tiene conocimiento y lo que necesita a lo mejor es dar una vuelta a algo que está armando, que está programando o buscar alguna función en concreto, para ese tipo de cosas va muy bien.
Estela Landrove: Tú me decías antes, hay diferencias entre chat GPT y entre Bard. Me gustaría que brevemente hiciéramos un balance y nos contaras qué tiene de bueno Bard y qué tiene de malo, y lo mismo con GPT.
Agus Aguirre: Bueno, ¿qué tiene de bueno Bard? Bard, por un lado, la velocidad de respuesta, has visto que es bastante rápido, por otro lado, que tiene conexión a internet, que al mismo tiempo ahí entramos con el contraste del punto negativo, que es este de que tengo conexión a internet, pero me voy inventando bastantes cosas, y si queremos también destacar este tema de poder dictarle, que puede llegar a ser algo interesante. GPT lo estuvimos viendo, es verdad que no hablamos demasiado de la versión de pago, pero básicamente la diferencia entre la versión de pago es la velocidad de respuesta y el tipo de respuestas que son bastante mejores, por no decirte muy mejores, más que nada porque también hay acceso a GPT 4 que es un modelo más avanzado y que ofrece respuestas mucho más concretas o mucho más específicas.
La principal diferencia es el acceso a internet, que la web de Bard a nivel de accesibilidad es un poco mejor, pero ya luego dependiendo de lo que cada uno quiera hacer es una o es otra. Como te digo al final para lo que he probado me ha gustado mucho más la respuesta que me ha dado GPT.
Estela Landrove: Agus, seguiremos pendientes de Bard, de GPT y de todo lo que tenga que ver con chat, con inteligencia artificial y con esos mundos que tanto te gustan. Muchas gracias.
Agus Aguirre: A ti.
(Sonido musical del programa)
Voz de niño/a: Escuchando Arroba Sonora.
(Sonido musical del programa)
(Sonido musical con la sintonía de Observatorio de Apps)
Observatorio de Apps
Estela Landrove: Abrimos el laboratorio de Apps, cada tres meses os traemos aplicaciones que se han evaluado por parte de distintos técnicos del CDI, ya sabéis que esas fichas luego las podéis consultar a través del Club ONCE en el apartado correspondiente y que también podéis suscribiros si queréis, cada vez que se publique una nueva aplicación pues os llegará la información a vuestro correo electrónico. ¿Con quién vamos a hablar sobre este buen puñado de aplicaciones? Con nuestra Karina Ramírez, hola.
Karina Ramírez: Hola, hola, que tal, hola a todos, a todas, que tal Estela, aquí de regreso.
Estela Landrove: Ya de vuelta.
Karina Ramírez: Si, que hace tiempo que no me tocaba la sección.
Estela Landrove: Bueno, pues para no perder las buenas costumbres, aquí te tenemos.
Karina Ramírez: Muy bien.
Estela Landrove: Vamos a empezar si te parece, tenemos unas cuantas, con una que es Penguin Libros. Esta aplicación, ¿qué es? ¿para qué sirve? ¿qué podemos hacer con ella?
Karina Ramírez: Pues te cuento un poco. Penguin, bueno, es precisamente el nombre de la editorial, que es bastante conocida. Lamentablemente, es una aplicación que ha decidido la propia editorial hacer su aplicación propia de audiolibros, de e-books y demás, pero ha resultado un poco un chasco porque no es posible hacer varias de las cosas, es poco accesible en general. Los e-books directamente no se pueden leer con VoiceOver ni tampoco con Talkback. Tampoco es posible, por ejemplo, reconocer los controles de reproducción. O sea, si intentas reproducir algún libro, si intentas etiquetar y, además, los controles de reproducción no funcionan correctamente, no es posible pausar o reproducir el libro, etcétera, etcétera.
Así que es una pena porque realmente son aplicaciones de audiolibros que serían súper útiles para pues precisamente para personas con discapacidad visual no pero bueno en este caso no ha habido suerte ojalá que nos escuchen y yo que sé lo arreglen.
Estela Landrove: Vamos a ver si con la de Chollometro funciona un poco mejor la cosa…
Karina Ramírez: A ver si tenemos suerte.
Estela Landrove: Bueno ¿esta aplicación para qué nos sirve, Karina?
Karina Ramírez: Pues te cuento. Chollometro es una aplicación bastante interesante, porque te permite encontrar descuentos y cosas así como pues en diferentes categorías, yo que sé, de viajes, de ropa, de marcas, de tecnología, de... o sea, tiene bastante contenido. Es... a ver, si tienes algo de destreza y logras más o menos ir jugando por ahí con la pantalla y los botones, pues se puede medianamente usar, pero realmente, si somos estrictos dentro de lo que sería la accesibilidad, tendríamos que decir que es inaccesible.
O sea, hay cosas que directamente no se pueden hacer, tenemos mucho problema de lectura por capas, por ejemplo, donde te vas moviendo por pantallas que de pronto te lee cosas que no están en pantalla. Lo mismo típico, los botones que no tienen ninguna etiqueta asociada y que no sabemos para qué son. Y, por ejemplo, podemos decir también que los usuarios de línea braille tienen problemas porque hay momentos en que en la línea braille se muestran cosas que no están en pantalla. Entonces realmente es complicado de usar. Hay alguna gente con destreza y con tal, como decía antes, que más o menos estás un poco ahí piloteando y lo logras, pero cuesta un poco y no es sencilla.
Estela Landrove: ¿Y Microsoft Authenticator? ¿Nos sirve para algo? ¿Podemos utilizarla?
Karina Ramírez: Claro, pues te cuento. Esta Authenticator es una aplicación de estas de seguridad que ahora se están utilizando bastante como para precisamente autenticar tu inicio de sesión en distintos servicios. Entonces, en el caso de Microsoft, se usa por ejemplo para las cuentas que puedas tener, por ejemplo, en tu trabajo o a nivel de estudiantes y demás, que tengan, por ejemplo, yo que sé el Outlook, el Teams, que tengas, por ejemplo, más de una digamos aplicaciones instaladas tanto en tu ordenador como en tu móvil, por ejemplo.
Entonces mediante esta aplicación puedes precisamente, la aplicación se asegura que eres tú quien está iniciando la sesión mediante esta aplicación en el móvil y te envía una notificación que puedes aceptarla mediante, por ejemplo, el Face ID en el caso del iPhone, se puede también introducir un código que te permite autenticarte o decirle que sí, que soy yo quien está iniciando la sesión, etcétera, etcétera y en general funciona bastante bien. Hay que tener en cuenta nada más para las personas que son sordociegas, que hay un código QR que se muestra en pantalla para poder asociar la cuenta, porque como decía antes, esto funciona con una cuenta ya sea de trabajo o personal y demás, pero primero es necesario asociarla a esta aplicación y para poder hacer esto es necesario leer un código QR, captar un código QR con la cámara del móvil. Entonces a veces eso puede resultar pues un poquito complejo para todos en general, pero bueno lo aclaramos también para las personas sordociegas en caso de que en la línea braille pues no sea posible ver este código.
En general, como te decía, funciona bastante bien. Es verdad que, en el caso de iOS, por ejemplo, hay momentos en que te pide ingresar un código y a veces se presenta una lectura por capas donde no podemos ver ese código con claridad y a veces incluso ha sido necesario cerrar la app y volverla a abrir y demás. Pero bueno, en general, la verdad es que funciona bastante aceptablemente.
Estela Landrove: ¿Y qué es esto de Registro de viajeros? que no lo había oído nunca.
Karina Ramírez: Registro de viajeros es una aplicación pública del gobierno que lo que pretenden es que cuando, por ejemplo, viajamos a ciertas zonas fuera de España, claramente, si hay en algún momento una emergencia, un conflicto, algo que pueda poner en peligro la vida, digamos, o que necesite asistencia a las personas, los españoles y las españolas que se encuentren en esa zona, pues que ellos puedan tener el registro de que estamos por ahí y nos puedan asistir en caso de ser necesario. Yo que sé, que te vas de vacaciones por ahí a algún país de Asia o tal y que hay, no sé, por ejemplo, suponte cuando pasó lo del tsunami, por ejemplo, algo de eso, ¿no? Que sepan ellos quienes están en esa zona y quienes van a necesitar ser atendidos. Entonces esto se maneja a través de consulado y demás y saben ellos, entonces llevan este registro, te preguntan de dónde vas a estar, cuántos días, tienes que ingresar una serie de datos, pero la verdad es que bueno, como iniciativa parece bastante interesante.
En general funciona bastante bien, lo único que tenemos es que, por ejemplo, el tema de mapas, que hay una sección donde nos muestra las zonas digamos como más conflictivas o más riesgosas para viajar y ese mapa es un mapa que pues nosotros con los lectores de pantalla no lo vamos a poder leer. Tenemos también, por ejemplo, que lamentablemente en algunos cuadros de edición, en algunos formularios que precisamente son necesarios para introducir los datos del viaje y demás, con el lector de pantalla activo no se pueden activar. Entonces a veces hay que pedir un poco de ayuda en este caso, pero bueno más o menos, más o menos se puede como te decía pues más o menos se va utilizando con un poquito de maña y de destreza no pero bueno lo mismo de siempre, hay cositas que se puede mejorar y bueno que no que no estaría mal que les echarán un vistacillo. Esto te lo digo en relación a iOS, en el caso de Android, bueno, también tenemos un poco de lo mismo que te comentaba, pero también, por ejemplo, tenemos botones sin etiquetar, por ejemplo, los de calendario, el menú principal no está etiquetado, tenemos algún tipo de problemilla con la navegación secuencial, o sea si vas haciendo flick con Talkback activo, no hay un orden secuencial correcto. Entonces bueno, a veces hay que tirar un poquito también de exploración táctil y tal.
Pero bueno, ojalá la mejoraran porque la verdad que sí que es lo que te digo para nosotros, encima, fuera de España sería súper útil saber que en caso de necesidad y en caso de emergencia pues hay alguien que te puede echar una mano, que no estás totalmente solo o sola, pero bueno, a ver si a ver si lo van arreglando un poquito.
Estela Landrove: Y la siguiente aplicación que vamos a tocar ahora es una que Karina seguro que la ha utilizado en más de una ocasión, y en más de dos, (entre risas de Karina) porque ya sabéis que ella es un amante de la moda, que le gusta mucho echar ojillos por unas páginas y por otras y nos vamos a ver la aplicación de Esfera, Karina.
Karina Ramírez: Sí, y tengo que decir que la he sufrido más que usado. Tengo que decir que la he sufrido bastante, es terrible. Yo creo que de todas las que hemos visto en estos días, es una de las peores, la verdad. Realmente tiene enormes, enormes barreras. No hay prácticamente un botón etiquetado en toda la app. O sea, es una cosa tremenda. Hay que estar como entrando en cada botón porque, a ver, el VoiceOver te lee el botón, pero no sabes qué hace ese botón. Entonces, es como entrar a ver qué hace y más o menos así llegas a ver alguna que otra prenda de ropa, llegas a activar alguna categoría o alguna cosa, pero realmente es complicada de usar a nivel de, digamos, de ver, por ejemplo, las descripciones de las distintas prendas de ropa o del calzado, lo que sea que puedas ver o los accesorios, también es complicadísimo llegar hasta ahí. Ya te digo que, tanto en Android como en iOS, prácticamente podríamos decir que es inaccesible del todo. O sea, si queréis perder un rato el tiempo y poneros a jugar y a presionar botoncitos sin saber ni a dónde estamos entrando, pues vosotros mismos y mismas, pero es terrible, de verdad que sí está bastante mal.
Estela Landrove: Bueno, como está tan mal, tampoco nos vamos a detener mucho más en esta App.
Karina Ramírez: No, mucho más no. (se ríe)
Estela Landrove: Y nos vamos a Legend Reader, que también la tenemos en iOS y en Android.
Karina Ramírez: Si, Legend Reader no, en realidad tenemos una que es Legend Reader que es para Android y tenemos como su equivalente digamos.
Estela Landrove: Es verdad, tenemos Voice Dream en el caso de iOS.
Karina Ramírez: Eso es, que básicamente pues es como si fuera pues como decíamos su equivalente, o sea una hace más o menos lo mismo que la otra sólo que en distintas plataformas. Pues básicamente son aplicaciones que nos sirven para pues para eso, para leer libros, para añadir libros de diferentes formatos a los dispositivos y poder leerlos de manera cómoda. De estas aplicaciones, la verdad es que no hay mucho que comentar. Ambas son pensadas, además, claramente para uso de personas con discapacidad visual, así que realmente funcionan de manera bastante accesible. No mucho más que decir. Sí puedo decirte que Legend Reader, pero no es culpa de sus desarrolladores, pero sí que por el tipo de sistema que es Android, a veces al moverte por los diferentes controles, digamos que es más lentito, pasas más veces, o sea, como para llegar a los diferentes botones hay que hacer flick más veces, digamos, que lo que harías, por ejemplo, en Voice Dream, pero obviamente no es comparable porque realmente las aplicaciones no es la misma, no es el mismo diseño, no tiene los mismos botones y demás pero bueno, decir básicamente que están bastante bien
Estela Landrove: Y esto de Mi Vendedor ONCE ¿esta aplicación exactamente qué es y para que nos va a servir?
Karina Ramírez: (se ríe) Que gracioso, yo no la conocía hasta hace poquito y me resultó curiosa. Pues Mi Vendedor ONCE es una aplicación que nos sirve para poder jugar y comprar los diferentes productos de la casa de ONCE, claramente, pero que, por ejemplo, principalmente funciona en lo que llaman los juegos activos, por ejemplo, lo que es el Triplex o el Súper ONCE o estos juegos en los que podemos elegir, digamos, números y cantidades de sorteos que no sea solamente un sorteo, sino que se puede jugar para varias ocasiones el mismo número, etc.
Entonces todo esto se puede hacer dentro de esta aplicación. Eliges tus números, eliges el juego que quieres activar y demás. Y eso sí, vas a tener que acercarte a un punto ONCE para poder pagarlo. O sea, lo que te permite hacer la aplicación es poder ver los números, poder elegir por tu cuenta o que la aplicación incluso te ayude a elegir números al azar. Es para la gente que le llama la atención el tema de, como decía, de los juegos activos, es interesante y es entretenida, ¿no? Pero sí, como digo, vas a tener que, una vez hecha tu selección y demás, y teniendo ya tú, digamos, ¿cómo decir? Tus cupones ya preconfigurados, acercarte a un kiosco de venta de cualquiera de nuestros compis vendedores para que ese vendedor te valide ese juego, te lo de impreso y lo puedas pagar y comprarlo.
Entonces, de esta aplicación, pues como te imaginarás, no tenemos mucho que decir. Lo único que estaría bien es que pudieran hacer accesible la parte de los mapitas para que pudiéramos saber dónde hay un vendedor ONCE cerquita que eso siempre viene bien, o sea, donde tenemos a los compis vendedores de ilusión.
Estela Landrove: Eso es.
Karina Ramírez: Y que nos digan fácilmente, escucha que tienes un kiosco aquí al lado vente a comprarnos. (entre risas de ambas)
Estela Landrove: Ahí está la sugerencia hecha por Karina y nos vamos a ver dos aplicaciones que, sucedió una cosa parecida a lo que ocurría con Voice Dream y con Legend Reader, que son las aplicaciones de fotos para iOS y de galería para Android. También las hemos examinado, ¿verdad?
Karina Ramírez: Las hemos examinado también, porque bueno, en teoría podríamos decir que se supondría que son aplicaciones de sistema y que tendrían que ser completamente accesibles. Y en general, pues obviamente, están bastante bien las dos. Lo que te puedo comentar, por ejemplo, en fotos, es que estaría bien que, en algún momento, por ejemplo, ahora que está tan de moda el tema de filtros y el tema de edición de fotos y demás, que eso le pudieran dar una vuelta y nos permitieran, por ejemplo, saber qué hace cada filtro. No sé si te has dado cuenta que, por ejemplo, en IOS cuando, por ejemplo, están los fondos de pantalla eso Apple lo hace bastante bien porque te lo describe bastante detalladamente. En poquitas palabras te cuenta más o menos qué es lo que hace o como es cada fondo de pantalla.
Pues estaría interesante que algo así hicieran con los filtros, porque en este momento lo único que te dice es algo así como cálido, frío, luminoso, no sé qué, pero no te da mayores detalles y bueno y alguien que no lo ve pues no sabe lo que le va a hacer. Entonces realmente a ver, que yo obviamente entiendo y me imagino que a nosotros ciegos o ciegas pues no nos va a interesar demasiado el tema filtros y el tema edición de fotos y tal, pero ¿y si hay alguien a quien sí? o sea, no sé, digo yo, o sea, por lo menos tener una herramienta un poquito más que permita un poco algo más de interacción con las fotos y que también nosotros seamos capaces pues de hacer ediciones y de hacer cosillas que pudieran ser más interesantes a nivel de las personas con discapacidad visual.
Pero bueno, no mucho más que decir. O sea, ya sabemos y las habréis usado vosotros y vosotras, que son aplicaciones pues bastante accesibles y no mucho más que señalar.
Estela Landrove: ¿Y qué es esto de SoundHound?
Karina Ramírez: Pues SoundHound es algo así, para que más o menos la gente entienda un poco más así de forma rápida. Es un Shazam, básicamente.
Estela Landrove: Ah, vale.
Karina Ramírez: Es una aplicación que nos sirve para escuchar una canción y saber qué canción está sonando y lo que también tiene, bueno y creo que también lo tiene Shazam, pero bueno más o menos lo que digamos una de las funciones que tiene SoundHound es que te permite buscar esa canción en YouTube o en las distintas plataformas de streaming de música, de reproducción de música tipo Spotify, Youtube, Deezer, etc. Te permite hacer ese tipo de reproducciones.
Lo que sí es que, debo decirte que, en el caso, por ejemplo, de los usuarios de iOS, sí que es bastante usable. No es del todo inaccesible, pero volvemos a estas aplicaciones que son a medias, más o menos. Sí que vais a encontrar botoncillos por ahí que no tienen etiqueta, alguna vez algún problemilla, por ejemplo, con la reproducción, que a veces, por ejemplo, se lee retroceder o adelantar y el VoiceOver lo que hace es que lo pausa, ese tipo de cosillas, pueden pasar. Y en Android pues bastante parecido, o sea, es poco accesible, en realidad falta bastante que arreglar, pero digamos que con un poquito de destreza y de paciencia más o menos, más o menos, se puede usar. Pero tampoco es la maravilla.
Estela Landrove: Karina, y nos quedan un par de aplicaciones, Weekend Desk ¿qué es esto?
Karina Ramírez: Weekend Desk es una aplicación que está bastante bien, lástima que no le den un poquito más de soporte para la accesibilidad. Weekend Desk es una aplicación que sirve, pues eso, como para escapadas de fin de semana. Entonces, tiene bastantes paquetes y bastantes sitios para irnos, así, en escapadas cortitas, o sea, tal vez no para irte dos semanas o un mes, sino más bien que te ofrecen, por ejemplo, paquetes de dos noches, de una noche, etcétera, en diferentes hoteles, casas rurales, en diferentes experiencias gastronómicas y de este tipo de servicio en distintos lugares.
Está incluso dividido por ciudades, hasta por pueblos. Pero, bueno, les falta principalmente una cuestión de arreglar un poco algunos botones que no tienen etiqueta, por ejemplo, para agregar a favoritos y estas cosas. A veces cuesta un poco. Y lo principal y lo que es más complicado de resolver es que el calendario para realizar las reservas es inaccesible. O sea, no es posible interactuar con él, con el calendario, si tenemos el VoiceOver activo. Entonces, en ese caso, es una pena porque sí que funciona bastante deficientemente en este sentido. Esto a nivel de iOS y en Android también hay problemas de navegación bastante complicados con el foco, o sea, hay momentos que incluso haces flick y el foco parece que se mueve solo, o sea, hace cosas un poco más raras incluso en Android que en iOS.
A ver si lo solucionan. Debo decir, sin hacer publicidad de la aplicación ni mucho menos, pero bueno, por si a alguien le interesa, que también tienen ahí un servicio telefónico y se puede hacer de otra manera, pero básicamente la aplicación tiene problemas de accesibilidad.
Estela Landrove: Bueno, en este número estamos encontrando bastantes aplicaciones con problemas.
Karina Ramírez: Sí, sí. (entre risas)
Estela Landrove: Vamos a ver, no sé si es que cada vez somos más duros o es que las aplicaciones cada vez dejan un poquito más que desear.
Karina Ramírez: Yo creo que por ahí va la cosa.
Estela Landrove: Si ¿verdad? ¿Google Family Link? y con esta terminamos, Karina.
Karina Ramírez: Pues mira, Google Family Link es principalmente para padres, madres, tutores de niños y niñas, ¿no? Que tengan hijos e hijas que ya empiezan a usar móviles y demás. Y pues eso, control parental, ¿no? Tener un poco…
Estela Landrove: Tenerlos controladitos.
Karina Ramírez: Eso es. La privacidad, las aplicaciones que se pueden descargar, incluso la ubicación, ese tipo de cositas nos permite controlarlas Google Family Link. Si lo usamos en iOS, obviamente solamente podemos controlar un teléfono Android, quiero decir, yo puedo utilizar la aplicación como madre, digamos en mi dispositivo iOS, pero no puedo controlar otro dispositivo iOS, ya para eso Apple tiene su propio control parental, pero sí que puedo controlar un Android.
Estela Landrove: ¿Pero solo uno, Karina? ¿O podemos controlar varios?
Karina Ramírez: Se pueden agregar varias cuentas para controlar varias cuentas. También esto va a depender de tu grupo familiar. Todo más o menos tiene una mecánica similar. Más o menos lo mismo que hace Apple a nivel de crear tu familia, quién es el administrador de la familia, etc. Entonces, a partir de ahí, puedes dar o quitar ciertos permisos y ciertas opciones a cada miembro y demás. Entonces, a partir de esto, como te decía, si lo usas en EOS, puedes controlar Android. Y bueno, si lo usas en Android, pues, obviamente, con más razón, vas a poder controlar otro Android.
Pero a lo que voy es que no te va a permitir utilizarlo, o sea, como control parental en iOS, no lo vas a poder usar. Vas a poder usarlo para manejar otro dispositivo, pero no iOS. Y lo que si te puedo decir es que es una de las aplicaciones que realmente no hay nada que decir.
Estela Landrove: Toma ya.
Karina Ramírez: Todo, totalmente, casi que podría decirte que con línea braille con lo que queráis funciona muy bien, los botones muy bien etiquetados, en Android lo mismo. Nada que decir súper bien.
Estela Landrove: Bueno pues entonces nos vamos con un buen sabor de boca.
Karina Ramírez: Ay menos mal.
Estela Landrove: Porque no todo va a ser malo.
Karina Ramírez: Ya, menos mal, menos mal.
Estela Landrove: No todo nos va a ir mal. Pues con esto terminamos el repaso de las aplicaciones de los últimos tres meses. De esas Apps, ya sabéis que si queréis que alguna de las aplicaciones que vosotros utilizáis y que os resulta de interés, que os parecen curiosas, queréis que puedan ser evaluadas, tenéis que mandar un correo electrónico a la dirección UIA@ONCE.es, unidad de información y accesibilidad de la ONCE, y ahí examinarán esos correos y esas aplicaciones y si las consideran de interés se evaluarán. Karina Ramírez, nos quedamos contigo y nos encontramos dentro de dos meses.
Karina Ramírez: Muy bien, por aquí nos veremos.
Estela Landrove: Ya, Arroba Sonora va a ser bimestral, no cada 15 días, sino cada dos meses. (se ríen)
Karina Ramírez: Eso es.
Estela Landrove: Muchas gracias por ayudarnos un día más y hasta la próxima.
Karina Ramírez: A ti. Hasta la próxima, chao, chao.
(Sonido musical del programa)
(Sonido musical con la sintonía de Videoteca ONCE)
Videoteca ONCE
Estela Landrove: Arroba Sonora está siempre muy pendiente a las novedades que se producen dentro de la ONCE, ya lo sabéis, a las novedades que tienen que ver con Alexa y en esta ocasión os queremos presentar una skill que acaba de salir hace un par de mesecitos y que nos va a permitir disfrutar de las películas que están alojadas en el Club ONCE a través de Alexa, de los audios de las películas. Vamos a presentaros esta aplicación con un ya amigo de Arroba Sonora, con Fran Maldonado, él es el responsable del área de promoción cultural y artística de la ONCE. Fran, bienvenido de nuevo.
Fran Maldonado: Muchas gracias Estela, bien hallada.
Estela Landrove: Un placer tenerte aquí una vez más para presentarnos otra aplicación de la ONCE, otra aplicación para Alexa que seguro va a dar muchas satisfacciones a todas aquellas personas que quieran ir escuchando nuestras películas mientras yo que sé, hacen cualquier cosa, lo que se les pueda ocurrir, ya no tenemos que tener el móvil encima o tener encendido el ordenador sino que desde el altavoz, ese altavoz que tenemos varias de saber dónde, en la cocina, en una habitación, mientras planchamos, mientras hacemos la comida, pues podemos disfrutar alguna de las películas que tenemos en audiodescripción en el Club ONCE. ¿Cómo surge la idea, Fran, de decir, venga, vamos a lanzarnos a la piscina y vamos a crear una aplicación, una skill, en este caso, para Alexa que nos permita hacer esto, escuchar las películas?
Fran Maldonado: Pues, Estela, como bien dices, es una herramienta más para poder acceder a todo el contenido audiodescrito que tiene la ONCE y que tenemos en la biblioteca UDES en Club ONCE, que podemos, además, acceder a él a través de la app Apolo, también, de visualizar en línea, en streaming, o escuchar los audios, descargándolos también.
Queríamos utilizar, ya que tenemos a Alexa, queríamos utilizar estos altavoces inteligentes, esta aplicación, esta herramienta que nos ofrece Amazon, para poder también disfrutar, al igual que hacemos de los libros de la Biblioteca Digital, pues poder también disfrutar de todo el contenido audiodescrito que tenemos. Así que así surge y así se ha creado y es la verdad que el funcionamiento es muy similar a la skill de la Biblioteca Digital y la verdad que es muy atractiva, muy sencilla de manejo y la verdad que todo un lujo.
Estela Landrove: Cuéntanos, Fran ¿Cómo podemos empezar a utilizar esta aplicación, la Videoteca de la ONCE? Que es muy sencillo, la verdad es que tú lees las instrucciones de Alexa y a lo mejor te asustas. Pero nada más allá de la realidad. (entre risas)
Fran Maldonado: No, no, no, para nada. Es muy, muy sencillo. Lo único que tenemos que hacer es buscar la skill dentro de la Store de Amazon Alexa y una vez que la tengamos, lo que tenemos que hacer es vincularla con la cuenta que tenemos de Club ONCE. Muy sencillo porque se abre ese diálogo con Club ONCE donde debemos aceptar eso sí la política de privacidad y aprobar el acceso de la Skill a las credenciales de Club ONCE. Una vez que ya tenemos eso ya sólo tenemos que decir “Alexa abre películas ONCE” y a funcionar.
Estela Landrove: Pues si te parece, vamos a ver cómo funciona.
Fran Maldonado: ¿Sí? Claro que sí. Se lo decimos. Alexa, abre películas ONCE.
Alexa: Buenos días, Estela Landrove González. Esta es la biblioteca de películas y series de la ONCE. Puedes realizar una búsqueda de listas diciendo qué listas tienes, o buscar una película o serie por título, director o género, diciendo, por ejemplo, quiero la película Tacones Lejanos, o quiero películas de Almodóvar, o quiero comedias, o conocer más opciones pidiendo ayuda en cualquier momento. ¿Qué deseas consultar?
Estela Landrove: Dime las novedades.
Alexa: Encontré 12 títulos. 1. A todo tren 2: Sí, les ha pasado otra vez. Película de 2022. 2. Sintiéndolo mucho. Documental de 2022. 3. Apagón, serie de 2022. Di más para más resultados, o di repite si quieres volver a escuchar estos.
Estela Landrove: Pon A todo tren 2.
Alexa: Encontré un título. 1. A todo tren 2: Sí, les ha pasado otra vez, película de 2022. ¿Quieres escucharla?
Estela Landrove: Sí.
Alexa: Comienza la reproducción de A todo tren 2: Sí, les ha pasado otra vez. Recuerda que puedes avanzar o retroceder 10 segundos diciendo Alexa, siguiente, o Alexa, atrás.
Estela Landrove: Y ya directamente, Fran, empezaríamos a escuchar esta película.
(Sonido de la película)
Fran Maldonado: Efectivamente, se reproduce toda la banda sonora de la película, incluido todos los vocales de audiodescripción...
Voz Antonio Vázquez: Según la Ley de propiedad intelectual, esta grabación se ha realizado en sistema AUDESC para uso personal y exclusivo de personas con discapacidad visual pertenecientes a la ONCE…
Fran Maldonado: Como estamos escuchando a Antonio Vázquez, que es la voz de audiodescripción preferida de nuestros usuarios.
Estela Landrove: Si queremos avanzar la película, como decía antes la propia skill, tendríamos que decir siguiente y avanzaría diez segunditos.
Fran Maldonado: Eso es.
(Audio de la película de fondo)
Estela Landrove: Aquí tenemos todos los créditos de la película y ya podríamos empezar a disfrutar de ella. También podríamos buscar, Fran, por título, por género, por autor…
Fran Maldonado: Eso es, también podemos buscar por esas tres características de las películas podemos buscar y por las novedades, le pregunto las novedades, como bien has hecho y lo que te va a decir son los 12 últimos títulos subidos a la biblioteca y te los va a contar además de tres en tres, para que no se te olviden, que eso es importante también. De tres en tres lo que te va a decir es el título de la película y el año en el que se ha producido la película.
Estela Landrove: Y tú le puedes decir, una vez que lo has visto, el título que te interesa, puedes decirle que te reproduzca ese título o que te reproduzca, por ejemplo, la película o la serie que has visto en cuarta posición, si no me equivoco.
Fran Maldonado: Eso es. Eso es. Dime la 3, dime la 5, dime la 8, la que quieras. O bien por nombres de las películas o de series o bien por la posición en la que te las ha mostrado.
Estela Landrove: Skill interesantísima con la cual vamos a pasar muchas horas de entretenimiento también podemos disfrutar de series, no sólo películas, y podemos ir pidiendo que nos las ponga por capítulos, pero, más que mostrarnos la entre Fran y yo, lo mejor es que os la descarguéis, que vinculéis vuestra cuenta de club ONCE con Alexa y que empecéis a disfrutar de todos los contenidos que podéis escuchar en audiodescripción. Fran, muchísimas gracias.
Fran Maldonado: Un placer, Estela.
(Sonido musical del programa)
(Sonido musical con la sintonía de Trucos)
Trucos
Estela Landrove: ¡Trucos, trucos! Esa sección que tanto os gusta, a todos los oyentes de Arroba Sonora, la traemos aquí fresquita e intentamos buscar cuestiones que puedan resultar interesantes para vosotros y en esta ocasión vamos a hablar sobre un pequeño truquillo que podemos hacer con los gestos de iPhone, que podemos hacer que algunas operaciones y opciones sean más simples, podemos cambiarle los gestos si queremos que en vez de que haya que pulsar con tres dedos que sea con dos, en fin que Agus Aguirre nos va a poner al día de esta cuestión, yo creo que va a resultar de interés porque os puede facilitar muchas cuestiones en cuanto a rapidez de navegación. Agus ¿qué tal?
Agus Aguirre: Agus Buenas ¿qué tal?
Estela Landrove: Agus, pues aquí te tenemos con tu iPhone en la mano para que nos cuentes que es esto de los gestos, de los atajos, que tiene que ver una cosa con otra. A ver, ponnos en situación.
Agus Aguirre: A ver, esto no es nada nuevo, al final del tema de los atajos he hablado por aquí en algún momento y de VoiceOver también. Entonces, la idea es relacionar las dos cosas. ¿De qué manera? Asociar atajos, o, mejor dicho, asociando atajos a gestos de VoiceOver. ¿Qué utilidad puede tener esto? Bueno, depende de lo que cada uno quiera hacer, lo que le pueda llegar a ocurrir, porque las posibilidades son bastante amplias. Por ejemplo, yo tengo ahora mismo para hacer la demo un atajo asociado al gesto de dos dedos hacia la izquierda y un atajo asociado al gesto de dos dedos hacia la derecha. Los atajos lo que hacen es ir a la canción anterior o ir a la canción siguiente o adelantar o retroceder dependiendo de la aplicación que estemos utilizando.
¿Qué tiene de bueno esto? Que podemos utilizar el atajo desde cualquier ventana y se va a ejecutar la acción. Por ejemplo, si estamos escuchando música y hacemos dos dedos a la derecha, cambiamos de canción sin tener que ir a la app o sin tener que buscar el botón de canción siguiente. ¿Cómo funciona esto? Por un lado, tenemos que tener el atajo hecho, que es un tema en el que no vamos a entrar ahora. Y por otro lado tenemos que decirle a VoiceOver que ese atajo se tiene que ejecutar con ese gesto, que eso sí es lo que vamos a ver. Vamos a ir a Ajustes (el lector de pantalla describe la navegación), vamos a ir a Accesibilidad, vamos a ir a VoiceOver, y aquí vamos a ver dos cosas. Primero vamos a ver cómo asignarlo. Vamos a suponer que ya sabemos que tenemos disponible el gesto de dos dedos hacia la izquierda y que únicamente lo que queremos es asignar, para lo cual le vamos a dar aquí a todos los comandos. Vamos a ir al final que está a atajos. Bueno, yo aquí tengo algunos míos, pero vamos a dar añadir gesto y aquí tenemos por encabezados todos los gestos de VoiceOver.
Tenemos gestos de toque, tenemos tocar, por ejemplo. Tocar una vez con un dedo que no se puede designar nada. Tocar tres veces con un dedo. Tocar cuatro veces con un dedo. En fin, tenemos todos los... Vamos a buscar aquí. Deslizar dos dedos. Ese es el que yo tengo asignado a ese atajo, que no lo voy a reasignar, pero simplemente sería darle aquí y nos va a decir esto.
VoiceOver: Aviso, gesto en uso. El gesto está asignado a otro comando: canción anterior.
Agus Aguirre: Nos indica que ya lo tengo asignado a canción anterior, pero podría decirle asignar, entonces se asignaría a este gesto. Ahora, también, si bien no entra en esto que estamos viendo hoy, desde aquí, desde comandos, podemos ver los que tenemos asignados en general.
Vamos a abrir aquí, por ejemplo, gestos de toque. En lugar de entrar a todos los comandos, entré al apartado de gestos de toque. Y aquí sí que nos lee qué hace cada uno. Aquí podríamos ver todos los que tiene VoiceOver. Y decidir, por ejemplo, este gesto la verdad es que no lo utilizo, así que le voy a asignar un atajo que me pueda venir bien. Esta es una posibilidad, ¿vale? Otra posibilidad es también asignar atajos a los toques en la parte trasera del dispositivo. Esto no es en VoiceOver. Esto se hace desde el apartado... puedes buscarlo también en accesibilidad, pulso tocar, y buscamos… (el lector hace un repaso de los gestos) tocar atrás, dice no porque…
Estela Landrove: No tienes asignado ningún gesto.
Agus Aguirre: Pero bueno, le daríamos aquí y tenemos tocar dos veces, tocar tres veces, tocar tres veces le daríamos y aquí hay un montón de cosas, inicio, linterna, un montón de opciones y también tenemos un apartado, si nos movemos por encabezados, que es atajos. Y aquí tengo este, por ejemplo, y entonces le daría y cuando toque el teléfono se me escogería este atajo que no me acuerdo la verdad que hacía, pero supongo que buscarme clima o algo de esto. Entonces, vamos a probar esto que comentaba. Por ejemplo, me voy a ir a la pantalla de inicio.
VoiceOver: 76576 mensajes de correo no leídos.
Agus Aguirre: Bueno, tengo un par de mails.
Estela Landrove: Sí, veo que tienes que despachar y dedicarle unos minutitos. (se ríen)
Agus Aguirre: Entonces, le voy a dar doble toque con dos dedos porque tenía aquí algo en reproducción. Vamos a hacernos un poquito de publicidad. (suena la introducción de Arroba Sonora) Entonces, ahora voy a deslizar con dos dedos a la izquierda. Dos dedos a la derecha. Vale, y me voy moviendo hacia atrás o hacia adelante, en este caso en la pista. ¿Por qué? Porque la aplicación de podcast, en lugar de saltar a la pista siguiente o la pista anterior, lógicamente se va moviendo por el episodio. Pero yo no estoy ni en el reproductor, ni en la pantalla de bloqueo que también tengo la opción de moverme por la pista, estoy en la pantalla de inicio de mi móvil. Entonces le doy y me voy moviendo por la pista. Bueno, puedes llegar a ser práctico para alguien.
Estela Landrove: Eso es.
Agus Aguirre: Pero vuelvo a lo mismo, lo que a cada uno se le ocurra. Eh... no sé. Si... no sé, ahora mismo se me ocurre que a alguien le hace falta activar o desactivar el zoom, que no tiene un gesto hasta donde tengo entendido concreto, pues se podría hacer un atajo para activarlo y desactivarlo, asociarlo a gesto y, bueno, si en algún momento le hace falta esa característica, la activa, si no, la desactiva, o lo que cada uno quiera.
Estela Landrove: Hay algunos de los oyentes que les tienen miedo a los atajos, pero no son tan complicados, ¿verdad, Agus?
Agus Aguirre: No. En general, muchas de estas cosas tienen una interfaz un poco curiosa. A mí particularmente la aplicación de atajos no me gusta. Pero no es tan complicado. Es más que nada encontrarle la vuelta a la aplicación y, sobre todo, más allá de eso, hoy en día en internet hay un montón ya hechos. Es cuestión de buscar.
Estela Landrove: Sí, pero hay que tener cuidadito de donde se bajan.
Agus Aguirre: Sí, sí, sí, por supuesto. Como todo, ¿no? Pero que al final el tema de los atajos no es tan complicado y, bueno, son muy potentes.
Estela Landrove: Hay gente que hace cosas impensables, que cuando los ves dices, anda, y a mí no se me ocurre, ¿no?
Agus Aguirre: Si, porque, por ejemplo, tu podrías tener un gesto asociado a que, no sé, se me ocurre… copias una frase al portapapeles con el gesto este de tocar con tres dedos.
Estela Landrove: Sí, con tres dedos.
Agus Aguirre: Y luego tienes otro gesto con el cual lo mandas a traducir, un atajo para traducir lo que tienes en el portapapeles. Entonces, claro, tienes conectadas dos cosas.
Estela Landrove: Y en un momento tienes ahí la traducción del texto que en muchas ocasiones es súper útil. Agustín ha sido un placer como siempre charlar contigo, aprender contigo y que nos hayas ayudado a conocer cómo se lleva a cabo esta unión de gestos, de atajos y hacernos en definitiva un poquito más fácil el uso del IPhone y perder menos tiempo en nuestra vida que hoy en día tenemos poco.
Agus Aguirre: Pues sí, pues sí. Nada, muchísimas gracias y a ver qué se me ocurre.
Estela Landrove: Hasta luego.
(Sonido musical del programa)
Carlos Latre: Hola amigos, soy Carlos Latre. Quiero mandaros todo mi cariño a la gente de Arroba Sonora y a mi amiga Estela, que ya es parte de mi familia. O sea que un besito muy grande y, sobre todo, todo mi cariño.
(Sonido musical con la sintonía de la sección ¿Qué sabes de?)
¿Qué sabes de…?
Estela Landrove: Vamos a jugar ahora un ratito porque os llama mucho la atención todo lo que tiene que ver con juegos, nos lo pedís de vez en cuando y en esta ocasión le hemos pedido a Rosa Chacón que nos hable de un juego que he de deciros que ella está completamente enganchada. Es el Mist World. Ahora nos va a contar qué es, en qué consiste, cómo se llega. Alguno de vosotros seguro que lo conocéis, y los que no lo conozcáis, aquí lo tenéis para que empecéis a jugar en él.
Rosa, bienvenida de nuevo.
Rosa Chacón: ¿Qué pasa? Buenos días. Ya te echaba de menos.
Estela Landrove: Y nosotros a ti. Por eso hemos decidido llamarte para que nos cuentes. En esta ocasión, no nos vas a dar una clase magistral sobre algo serio, sino que vamos a jugar un ratito. ¿Qué te parece?
Rosa Chacón: Pues que me gustan más estas que las serias. Qué quieres que te diga, son más divertidas.
Estela Landrove: Pues venga. Yo decía que nos ibas a hablar del juego Mist World. Cuéntame. Este juego es para ordenador, es para Windows, pero quiero que me lo detalles tú un poquito más.
Rosa Chacón: Pues mira, sí. Es un juego de ordenador, sólo está para Windows y es pantalla negra como yo digo. Es decir, cuando tú lo ejecutas, la pantalla se ve en negro, pone Mist World y ya. Es decir, que quien vea un poquito, evidentemente puede jugar, pero que sepa que no va a ver nada. No hay gráfico ninguno ni va a ver nada, es todo audio. Esa es la única pega que yo le pongo al juego, porque si tuviera gráficos, aunque fueran malillos, pues entiendo que hay más gente que lo podría aprovechar.
Estela Landrove: Se animarían un poquito más a verlo y a jugarlo.
Rosa Chacón: Lo ideal es que el juego fuera accesible, con gráficos y que jugáramos todos, videntes y no videntes, pero bueno. Como no puede ser, pues hay que adaptarse a lo que hay. Y el juego, la verdad es que está muy bien hecho. Es muy divertido, tiene muchas cosas que hacer, siempre tienes algo que hacer en el juego, hay muy buen ambiente, juega gente de todo el mundo. O sea, que vamos. Es que, si te gustan este tipo de juegos, la verdad es que yo no sé cómo no lo conoces. Seguramente lo conozcas ya, pero si no, a tiempo estamos.
Estela Landrove: ¿De dónde lo podemos conseguir?
Rosa Chacón: Pues mira. Es un juego que en teoría está en inglés. Digo en teoría, pero vais a ver que no es verdad y se puede conseguir desde... Bueno, en 500.000 sitios está, pero yo siempre recomiendo que se bajen las cosas de la página oficial y evitamos desgracias. Entonces, su página principal es mwgame.net. O sea, mw de Misty World, la palabra game, sin S, game nada más,.net. La página está en inglés, pero hay un enlace maravilloso que es comunidad española, spanish community, y ahí lo tienes todo en castellano.
Estela Landrove: Nos bajamos el juego, lo instalamos.
Rosa Chacón: Nos bajamos el juego y tenemos instalable y portable. Entonces, una vez que nos bajamos el juego, ahora lo vamos a hacer para que lo veáis, hay que ponerlo en castellano. La traducción al castellano está también en la misma página. Entonces, el proceso sería: entramos a la página, nos bajamos la traducción, nos bajamos el juego. La traducción es una carpeta que se llama Spanish. Esa carpeta la pegamos dentro de la carpeta del lenguaje del juego. O sea, abrimos la carpeta del juego, si es el portable, donde lo hayamos colocado, y si es el instalable, donde se haya instalado. Ahí hay una aplicación que se llama lenguaje, bueno, language. Entramos en language y ahí tenemos todos los idiomas que hay, chino, inglés, tal y cual. Vale, pues buscamos spanish y machacamos la que hay con la que nosotros tenemos. Que no nos queremos complicar la vida, que esto es muy difícil, que yo no sé hacerlo, no pasa nada.
El juego se actualiza solito. O sea, te puedes encontrar que le des y te ponga actualización en curso. Bueno, pues vale. Es gratis, pero puedes pagar y que te facilite un poquito la vida en el juego, lo cual no quiere decir que el juego sea un pay to win. O sea, tú puedes tener exactamente lo mismo sin pagar que pagando. Lo único que pasa es que, evidentemente, como es lógico, porque la gente que hace juegos tiene la mala costumbre de querer comer, si pagas te facilita mucho la vida. Pero vamos, yo sé de gente que paga y que tiene un equipo en el juego bestial y gente que no paga y que también tiene equipos bastante razonables. O sea, que se puede jugar, no tienes por qué pagar. Bueno, os voy a contar de qué va el juego.
Estela Landrove: Cuenta, cuenta, cuenta.
Rosa Chacón: Estamos diciendo aquí juego y juego y no sabemos de qué va. El juego es un juego, para ponerlo que se me entienda fácil y sin tecnicismos, tienes que elegir un personaje. Personajes son sacerdote, asesino, cazador, orco, guerrero, hechicero y mago, que me van a pegar los magos si no. Entonces, tienes que elegir un personaje y si quieres ser hombre o mujer. Entonces, una vez que tú ya has elegido el personaje, te lo dan de nivel 1. El juego en sí trae un tutorial, porque claro, tal como llegas, evidentemente, no sabes ni cómo se mueve el personaje. Con lo cual, hasta nivel 4, realmente lo que vas haciendo es un tutorial que te va explicando las teclas del juego, cómo se mueve el personaje, cómo se pone uno el equipo, porque el muñeco te lo dan, para entendernos, en cueros, y ahora tienes que ir poniéndole ropa para que tenga más equipo y para que se defienda mejor, tienes que ir poniéndole armas, tienes que ir mejorándole el equipo. En fin, tienes que ir haciendo todo por el muñeco. Consiguiendo dinero para que el muñeco se pueda comprar cosas para que... El equipo, por ejemplo, tú tienes ya el arma, pero ahora tienes que mejorarle el arma. Pues el arma hay que mejorarla con cristales. Esos cristales hay que comprarlos con dinero del juego. Entonces, tú tienes que conseguir dinero, que se saca matando bichos, o se saca haciendo misiones, o se saca pescando. En fin, que tienes muchas cosas que hacer en ese juego.
Estela Landrove: Bueno, y una vez que ya sabemos de qué va, sabemos que es para Windows, sabemos que es gratuito, vamos a empezar a jugar.
Rosa Chacón: Bueno, pues vamos a abrirlo.
Lector de pantalla: Microsoft Teams Mist, 31 de 45.
(Música del juego)
Rosa Chacón: Tal como abres, suena la musiquita del juego y tenemos que iniciar sesión. Como he dicho antes que os iba a explicar cómo se hacía para cambiarle el idioma, lo vamos a hacer así. El mío o está en español, evidentemente, pero lo vamos a explicar. ¿Cómo se hace? De entrada, hay que aprenderse que este juego, como los juegos similares que hay de videntes, el teclado deja de ser el teclado habitual. Quiero decir, flecha arriba y flecha abajo de los cursores, no van a funcionar como flecha arriba y flecha abajo para moverse. Aquí, para moverte por los menús y para mover al muñeco se hace con la A, con la S, con la D y con la W. Si tú colocas la mano sobre el teclado, te das cuenta de que no deja de ser una cruz. La W es para ir hacia arriba o hacia delante, la S es para ir hacia abajo o hacia atrás, la A es para irse para la izquierda y la D es para rse para la derecha. Si pones la mano en el teclado, lo ves. Entonces, para moverse por el menú hacia abajo se hará con la S.
Mist World diálogo: Crear cuenta.
Language.
Rosa Chacón: Entramos aquí con enter. Y tenemos los distintos idiomas. Inglés americano. Inglés británico. Ruso. Español. Pues aquí le daríamos a intro, y una vez que le demos a intro, nos salimos del juego para que digamos se cargue la configuración. En mi caso, como ya está en español, pues no tengo que hacerlo.
Mist World diálogo: Cambiar y recuperar contraseña.
Salir.
Iniciar sesión.
Rosa Chacón: Bueno, iniciamos sesión. Al iniciar sesión...
Mist World diálogo: Último acceso: 18 de mayo de 2023.
Rosa Chacón: En mi caso, me sale el orco que tengo, que se llama Sarical, y si tuviera más personajes, yo le daría con la S y entonces me saldría mi lista de personajes. Como yo sólo tengo este, le doy a intro, con lo cual, inicio sesión y estaría dentro del juego.
Mist World diálogo: Salón interior porche.
Rosa Chacón: Bueno, me ha dicho dónde estoy, dónde dejé el muñeco. El muñeco se queda donde lo dejaras. Es decir, cuidadito dónde me lo dejáis, porque si lo dejáis en una zona de batalla, cuando entréis, lo mismo os dan una bienvenida agradable. Vamos, os matan. Entonces, intentad siempre dejarlo en un sitio seguro. En este caso, yo he dejado a mi muñeco, queriendo, en una cosa que se llama gang, en una cosa que se llama pandilla, para explicar lo que es. Las pandillas son como asociaciones que se hacen dentro del propio juego donde nos ayudamos, vamos en equipo a hacer mazmorras, a hacer misiones, y la verdad es que hay muy buen ambiente. Hay guerras de pandillas también, pero siempre, dentro del buen rollo. Como en todos lados, siempre hay gente que te pueda caer mejor y gente que te pueda caer peor, pero se montan unas guerras bastante entretenidas. El juego tiene chat, por escrito, eso sí. Por ejemplo, si yo quisiera saludar a la gente de mi pandilla, imagino que no habrá nadie y que estarán todos durmiendo. Entro en el canal pandilla y digo buenos días.
Mist World diálogo: Pandilla. Sarical: buenos días.
Rosa Chacón: Y si hubiera alguien despierto, que no creo, pues me dirían buenos días. ¿Ves? No hay nadie, están durmiendo, pero vamos.
Estela Landrove: ¿El chat es en inglés, imagino, Rosa? ¿O en castellano?
Rosa Chacón: No, en castellano. Como veis, yo he escrito buenos días en castellano. Luego hay diferentes canales. Le puedes mandar chat privado a personas. Luego está el canal internacional, que es donde se habla castellano y te lee todo el mundo que esté en el juego en ese momento.
Internacional, por ejemplo. Hola. Estoy grabando un podcast. Por favor, saludad o algo.
Mist World diálogo: Internacional. Sarical. Hola. Estoy grabando un podcast. Por favor, saludad o algo.
Rosa Chacón: A ver si hay alguien despierto, porque claro, la gente está trabajando, estudiando, o si son del otro lado del charco, a esta hora están durmiendo como angelitos como es normal.
Estela Landrove: No nos saluda nadie.
Rosa Chacón: Nada. Los canales que hay son el canal de equipo, cuando tú te haces un equipo para ir a una batalla o lo que sea. El pandilla. El cercano es para saludar a la gente que esté en la misma área que tú. Mapa es la gente que esté en tu mismo mapa. Global, pues la verdad es que aquí hablamos poco, o se habla poco, porque aquí sí que es verdad que va en inglés. Privado es un canal privado, que aquí sí es más fácil que haya gente, porque también se pueden hacer canales privados. Entonces, voy a saludar por el privado.
Mist World diálogo: Canal de chat diálogo. Escribir edición en blanco.
Hola. Estoy grabando un podcast, saludad o algo.
Rosa Chacón: A ver si hay aquí alguien despierto. La verdad es que este juego nunca duerme, porque como juega gente de todo el mundo.
Estela Landrove: Bueno, pues hoy sí. Hoy están durmiendo todos, Rosa.
Rosa Chacón: Hoy están tímidos, están tímidos todos. No pretendo hacer un tutorial de...
Mist World diálogo: Sistema. Grip obtuvo el equipo máscara. Excelente.
Rosa Chacón: Hay alguien que está matando por ahí y le han dado un equipo excelente. Eso que ha sonado, te va diciendo las cosas que va obteniendo la gente para que te dé envidia y te den ganas de tenerlas tú. No pretendo hacer un tutorial del juego porque entonces nos haría falta un Arroba para nosotros nada más. Aparte, en YouTube hay infinidad de tutoriales hechos, en la comunidad española de la página web del juego hay también tutoriales del juego, en la conocida sala de juegos, que la gente que juega la conoce, hay un hilo de Mist World, yo estoy por aquí. A mí me podéis encontrar. Mi ID en el juego, la voy a decir. La ID es como el código de tu muñeco, la forma de encontrarle. 4794 es mi ID. Quien quiera, me puede mandar un privado un privado a esa ID. La pandilla que yo estoy es Wild Stars, o sea, estrellas salvajes, que ahora mismo hay hueco. Ahora mismo, a la fecha que se está grabando esto, hay hueco. Con lo cual, si eres un personaje activo te puedes unir a nosotros. Dije que lo iba a decir y lo voy a decir. Saludos, Loki, eres el mejor. Ya está, ya cumplí. Y bueno, pregúntame tú.
¿Quieres que saquemos al muñeco de aquí?
Estela Landrove: Claro, a mí me gustaría verte en acción, a ver cómo funciona realmente este juego para ver si se animan nuestros oyentes a jugarlo.
Rosa Chacón: Pues bueno, vamos a sacarlo de la pandilla. Esto va muy bien porque como los mapas te los acabas aprendiendo, a lo tonto, a lo tonto, te mejora la movilidad espacial porque tienes el mapa en la cabeza. De todas maneras, el juego también tiene ayudas. No tienes que sabértelo, lo que pasa es que llega un momento que te lo sabes. Entonces, yo me voy a ir de la pandilla. Voy a salir hacia el sur.
(Sonido de pasos en el juego)
Mist World diálogo: Corredor sur.
Salón exterior corredor norte.
Porche.
Corredor norte.
Salón frontal.
Corredor sur.
Rosa Chacón: Suena eco. ¿Os fijáis que según vas pasando por sitios?
Estela Landrove: Sí, por las distintas salas, suena de una manera o de otra.
Rosa Chacón: Suena de una manera o de otra.
(Sonido de pasos en el juego)
Mist World diálogo: Porche.
Corredor sur.
Avenida frontal de la mansión.
Llanuras centrales ciudad Rocagigante Plaza de la Roca.
(Voces de personajes y sonido ambiente del juego de fondo)
Rosa Chacón: Estoy en la plaza más concurrida del juego. Sea la hora que sea, da igual. Aquí siempre hay gente. A ver si digo hola por el cercano y alguien contesta. Esa voz que se oye por ahí es una voz de un personaje del juego. Las voces de los personajes del juego están en inglés porque el juego está en inglés, pero luego, todo está traducido.
A ver si en el cercano hay alguien. Aparte, alguien me entiende, porque en el cercano, yo puedo escribir hola, pero puede haber a mi lado un señor japonés que no sabe lo que yo estoy escribiendo, claro.
Estela Landrove: Lógicamente.
Mist World diálogo: Hola.
Mist World diálogo: Nice to meet you.
Rosa Chacón: A la señora del banco le encanta verme. La señora del banco del juego, porque en el banco real, no me quieren ni ver. En el juego, sí. Muy educadita.
Bueno, vamos a movernos por la plaza. No me voy a meter en peleas porque tengo unos cascos que no son estéreo y lo mismo me oís morir en directo, y no tiene gracia. Por ejemplo.
Mist World diálogo: 14 metros, un mensajero del torneo de pandillas.
Rosa Chacón: ¿Qué hago? Le doy a la L y me va diciendo los personajes que tengo alrededor y me dice a qué distancia están. Tengo a 14 metros un mensajero de torneos de pandillas, que son guerras de pandillas. Si me muevo por ejemplo hacia el norte.
Mist World diálogo: Plaza de la Roca. Nueve metros, un vendedor ambulante.
Rosa Chacón: Tengo al vendedor ambulante, que nos vende mochilas y nos vende bestias de fusión.
Estela Landrove: ¿Y qué podríamos hacer con el vendedor ambulante?
Rosa Chacón: Pues venga, vamos a buscarlo.
Voy a activar una cosa que se llama navegación a tiempo real.
Mist World diálogo: Activar navegación en tiempo real.
Rosa Chacón: Entonces, lo que voy a hacer va a ser darle a la O.
Mist World diálogo: Pulsa G para revisar los detalles de los productos.
(Sonido de pitido de radar)
Rosa Chacón: No sé si se aprecia. El radar me va indicando por el pitido dónde está lo que yo estoy buscando. Yo me alejo y veis que suena mucho más lejos y mucho más bajito.
Mist World diálogo: Calle sur, Plaza de la Roca.
Rosa Chacón: Suena más espaciado el pitido y más bajito, y si yo me acerco, suena más fuerte y más continuo. Esto te sirve para encontrar personajes que sean del juego o personas reales que están jugando aquí.
Mist World diálogo: 11 metros, almacén espacio temporal.
11 metros, almacén de armas.
18 metros, civil.
6 metros, un instructor.
6 metros, vendedor ambulante
Rosa Chacón: Le doy a la P y ya no me tengo que mover yo, me lleva el juego.
Ya estoy con el vendedor ambulante. Ahora, interactúo con él con intro.
Mist World diálogo: Señorita, ¿necesitas equipo especial? Si te esfuerzas lo suficiente, puedes intercambiar bestias de fusión, medallas de honor y mochilas conmigo.
Cancelar navegación.
Intercambiar cristal de bestia de fusión.
Rosa Chacón: Bestias de fusión son cosas en las que nos transformamos.
Tenemos el escarabajo de hierro, que te lo dan a nivel 45. Tenemos la luciérnaga, que te la da a 55. El lobito y el elfo, que te lo dan a nivel 65. O sea, que a cada nivel te van dando cosas que te mejoran a la hora de atacar. El juego tiene infinidad de cosas. Por ejemplo, las flechas de cursor, lo que nos hace es podernos desplazar con nuestro inventario, y el inventario está en distintas categorías.
Mist World diálogo: Habilidades de profesión.
Rosa Chacón: Los objetos que llevo encima. El equipo que llevo puesto. Las bestias de fusión, que en mi caso tengo nada más que la luciérnaga y el caballo.
Mist World diálogo: Caballo blanco azulado. Luciérnaga.
Rosa Chacón: El caballo sirve para desplazarse más rápido. Ahora os lo pongo, que suena como un caballito.
Las mascotas son mascotas que nos ayudan a matar. Yo tengo dos, una rana y un gato.
Mist World diálogo: Gato de pelo corto salvaje.
Rosa Chacón: Pero bueno, hay barbaridades, hay cosas chulísimas por ahí. Y luego, las habilidades de combate.
Mist World diálogo: Golpe valiente, golpe imprudente, sed de sangre, corte de carne, estampida furiosa.
(Sonido de trompeta en el juego)
Rosa Chacón: Eso que suena ahí es que alguien ha creado un equipo, la trompeta esa.
Mist World diálogo: Ignorar el dolor, martillo ancestral, golpe atronador, golpe de gigante, mascotas, bestias de fusión.
Rosa Chacón: Voy a poner el caballito y me voy a pasear. Por ejemplo, mira. Si yo ando normal, oís mis pasos, ¿verdad?
Estela Landrove: Sí.
Rosa Chacón: Pero si yo me pongo el caballo, (relincho de caballo) ya de entrada, relincha, y ahora verás. (Sonido de trote de caballo)
Mist World diálogo: Calle este.
Rosa Chacón: Según tú vas andando, él te va diciendo por dónde vas.
Estela Landrove: Es igual que ir andando, pero en este caso vas más rápido porque vas a caballo.
Rosa Chacón: Vas más rápido con el caballito. El juego, para desplazarse tiene teleféricos, tiene dirigibles. No tienes por qué ir andando a todos lados. También se puede ir nadando según dónde te tengas que meter. Ya digo que el juego es supe completo, y tiene unos efectos de sonido... Me he quitado el caballito. Tiene unos efectos de sonido sencillamente espectaculares.
Estela Landrove: Sinceramente, es sorprendente y, además, tiene pinta de ser vamos, plenamente adictivo.
Rosa Chacón: Sí, ya os digo yo que sí, porque ya te digo, tiene de todo. Y luego el tema además es que, si te pones unos auriculares buenos, tú no sólo sabes que lo que sea que tengas lo tienes al norte y al este, es que casi eres capaz de estirar la mano.
Estela Landrove: Qué bueno.
Rosa Chacón: Tiene un sonido localizado... Claro, depende de los cascos que lleves. Si llevas unos cascos de estos de los chinos de dos euros, pues no le pidas magia, pero si llevas unos cascos buenos, la verdad es que la experiencia cambia muchísimo.
Estela Landrove: Pues Rosa, yo no sé si quieres comentar alguna cosa más porque tampoco me quiero extender en exceso porque como tú decías antes, tendríamos que ocupar un par de Arrobas contando cada una de las cosas que tiene el juego.
Rosa Chacón: Si interesara y quieren los oyentes, que son los que mandan aquí, en un momento dado, la próxima vez nos extendemos un poquito más, hacemos alguna misión, aunque sea nada más que para que la oigan. Y nada, simplemente digo que os animéis todos a jugar, que el juego está chulísimo, es super adictivo, pero hay buen rollo. No es de estos que dices es que estás enfermo, estáis todo el día.
No es así. No se necesita pagar. Evidentemente, si pagas, ayuda. No voy a decir que no.
Estela Landrove: Claro, por supuesto.
Rosa Chacón: Ayuda, pero no es necesario ni obligatorio. Y bueno, probadlo y me decís cuando lo probéis. Ya veis el escándalo que hay aquí.
Estela Landrove: Sí, sí. Desde luego, sonidos no nos faltan.
Rosa Chacón: Por eso lo dejé en la pandilla. Me voy a quitar de aquí porque el escándalo de aquí es insoportable.
Mist World diálogo: Huerta, sindicato de pandilla.
Rosa Chacón: Me voy a la pandilla, que hay silencio.
Mist World diálogo: Sindicato de pandillas. Entrar al salón exterior de la pandilla.
Estela Landrove: Ay, sí. Así podemos hablar ya más tranquilitas. Ya tenemos menos ruido.
Rosa Chacón: Hay paz ahora. Cuando empiece a despertarse el personal de mi pandilla, vas a ver tú.
Estela Landrove: ¿También sois ruidosos?
Rosa Chacón: También, también.
Estela Landrove: Bueno.
Rosa Chacón: Pero bueno, ya digo que es muy divertido el juego, que lo probéis, que no tenéis nada que perder y sí tenéis mucho que ganar. Vais a ganar muchos ratos de diversión.
Estela Landrove: Descargaos el juego que os decía Rosa: os lo va a volver a deletrear, os va a volver a recordar la página de donde lo podéis descargar y comenzar a jugar y a disfrutar. Rosa.
Rosa Chacón: Pues el juego se llama Mist World. La página es mw, de Mist World, mwgame.net.
Si no os lleváis bien con el inglés, le dais a spanish community y ahí lo tenéis todo ya en castellano. Y bueno, ya digo. Hay tutoriales, hay un hilo en la sala de juegos, estoy yo por allí. Me mandáis un privado y lo que sepa, lo resuelvo, y lo que no, pregunto, como siempre. Y si queréis más info del juego, ya sabéis dónde estoy, que yo, cualquier excusa me vale para grabar por aquí con Estela.
(Música del programa de fondo)
Estela Landrove: Genial, Rosa. Pues una vez más, muchísimas gracias por habernos acompañado, por habernos mostrado y enseñado este fantástico juego. Desearte un verano fantástico y nos volvemos a ver a la vuelta del verano si te parece.
Rosa Chacón: Cuando tú quieras. Ya sabes que siempre estoy disponible.
Estela Landrove: Pues un beso fuerte.
Rosa Chacón: Hasta luego.
(Sonido musical con la sintonía de Arroba Responde Mails)
Arroba Responde Mails
Estela Landrove: Abrimos vuestra sección que, aunque todo este podcast es vuestro, pero esta sección más si cabe. Arroba responde correos electrónicos conocéis que en ella damos respuesta a vuestras preguntas y además pues contamos cuáles han sido los concursantes que van a optar al sorteo, en este caso de dos suscripciones para Sonora, esa plataforma de audio de A3 Media y también vamos a poner en marcha otro nuevo concurso.
Vamos con los correos que nos habéis enviado a la dirección arrobasonora@ONCE.es, Arroba Sonora con letra, arroba con símbolo, ONCE.es.
En primer lugar, Fernando Villalba nos saluda, es un asiduo oyente, desde el principio y nos dice que si podemos hablar de las novedades para IOS 17, iOS y también en el sistema operativo para IPad. Bueno, pues hemos hecho un pequeño resumen en cuanto a iOS.
También nos habla Jesús María Franco de los problemas que está encontrándose con los datáfonos táctiles. Jesús María, pues es verdad que existen esos problemas, yo misma me he encontrado con ellos, se están intentando buscar soluciones, de hecho, nuestros vendedores de la ONCE ya las tienen en sus datáfonos, datáfonos táctiles que cuentan con unas pequeñas marcas, y a ver si esas soluciones se ponen en práctica y se llevan en definitiva a todos los datáfonos de la red nacional, no solamente en nuestros vendedores de la ONCE.
Y también tenemos a Isidro Vilaseca, que dice que si existe algún mapa interactivo a través del cual podamos localizar países, ciudades… De momento no, pero todo se andará Isidro, porque cada vez vamos haciendo más cositas. Ya de momento tenemos ese globo terráqueo y a ver si conseguimos ese mapa del mundo.
Y también Pablo nos dice que le gustaría que habláramos del Victor Stream 2. Pues solamente le puedo decir a Pablo que, si busca el número 5 de Arroba sonora, ahí va a encontrar un extenso reportaje del Victor Stream 2, como funciona, cómo se utiliza, para qué sirve y todo lo que va a poder hacer con él.
Así que ahí lo tenéis esas informaciones, esas respuestas a vuestras preguntas y, lo que siempre os digo, no dejéis de preguntar porque así nosotros no dejaremos nunca de aprender ni de investigar.
Vamos a dar a conocer ahora quienes han sido los concursantes que han acertado la respuesta. Preguntábamos cómo se llama el blog de Olga Carreras, Usable y Accesible, habéis acertado todos los participantes. Vamos a dar ahora los nombres y los números de los distintos concursantes para que entréis en el sorteo de esas suscripciones anuales para Sonora.
Pues empezamos con el número 1, que es para Ángel de Asturias, el número 2 Tatiana Alba, el número 3 es para Nuria, 4 Juan Carlos de Córdoba, 5 María Ángeles Romero, 6 Mónica Marcos, 7 Jesús María Franco, 8 Sara Silvia Martínez, 9 Eleuterio Martínez, y no son hermanos, 10 Juan Manuel Herrero, 11 Raquel Martín, 12 Juan Ayora, 13 Eladio, 14 Jose Motos, 15 Fernando Villalba, 16 Isidro Vilaseca, 17 Andrés Oteo, 18 Paco Estévez, 19 Marcos de Tenerife, 20 Miguel Ángel Lorenzo, 21 Enrique Montoro, 22 Ana Belén Bravo, 23 Cristina de Asturias, 24 Jorge de Málaga, 25 Pablo, 26 Miguel, 27 Gregorio de Tenerife, 28 Rubén de Almería, 29 Raúl de Madrid, 30 Guadalupe de Sevilla, 31 Javier Cantero de Madrid, 32 miguel Ángel de Zaragoza, 33 Camilo Martín, 34 Pedro Aguilera, 35 Javier de Pontevedra, 36 Mari Carmen, 37 Emilio Gálvez y 38 tenemos a Jose Antonio.
Así que ahí estáis 38 concursantes, 38 participantes, vamos a ver quién se lleva la primera suscripción. Alexa Dime un número entre el 1 y el 38.
Alexa: Aquí tienes un número entre 1 y 38, el 23.
Estela Landrove: El número 23 se lleva esa suscripción para Sonora y es Cristina de Asturias. Enhorabuena, Cristina. Ahí tienes esa suscripción anual, ponte en contacto con nosotros a través del correo electrónico, a través de arrobasonora@ONCE.es, arrobasonora@ONCE.es, mándanos tus datos, sobre todo un correo electrónico para que te podamos mandar esa clave y esa suscripción. De nuevo enhorabuena Cristina, vamos a conocer ahora quién es el siguiente ganador de la segunda suscripción para Sonora.
Alexa, dime un número entre el 1 y el 38.
Alexa: El 14.
Estela Landrove: Enhorabuena, José Motos, se va a llevar esa segunda suscripción para Sonora. Te digo lo mismo que a Cristina, José, ponte en contacto con nosotros a través del correo electrónico arrobasonora@ONCE.es para que nos des tus datos y te podamos enviar ese código de suscripción de Sonora. ¡Enhorabuena para todos!
Y continuamos con otro concurso. En esta ocasión la pregunta, como siempre, es muy sencilla y es ¿cuál es el nombre de la skill de Alexa para poder escuchar los contenidos de la Videoteca Digital? Para poder escuchar las películas en sistema audiodescrito. ¿Cómo se llama esa skill? Que la hemos presentado y la hemos contado aquí en Arroba Sonora. Respuesta, ya sabéis, notas de audio al 667 14 87 49 o correos electrónicos a arrobasonora@ONCEes. Tenéis de plazo para dar vuestras respuestas desde este mismo momento y hasta el próximo día 10 de noviembre. Así que venga, manos a la obra, responded que es muy fácil y podéis optar al sorteo de un powerbank. Ya sabéis que vamos siempre todos muy justitos de batería, bueno pues consideramos que este powerbank puede ser interesante para vosotros, que podéis cargar vuestro móvil o cualquier otro dispositivo electrónico que tengáis ahí con batería para que nunca os quedéis en la estacada y que no os quedéis a medias escuchando arroba sonora, no os creáis que lo hacemos por otra cosa. En fin, que ahí está la pregunta, esperamos vuestras respuestas y simplemente me queda ya pues citaros hasta dentro de dos meses. Queremos que nos sigáis escribiendo, que nos sigáis mandando notas de voz y para eso tenéis esos canales que os he comentado anteriormente.
(Sonido musical del programa)
(Sonido musical con la sintonía de Despedida)
Estela Landrove: Esta música ya no hace falta que os lo diga, es la sintonía del final, que nos hemos ya extendido demasiado, hemos estado con vosotros muchísimas horas, más de dos horas y media de podcast. Esperamos que lo escuchéis poquito a poco, que no se os indigeste que si no podéis acabar cogiéndonos manía. Bueno ahora en serio que nos tenemos que ir, que se han acabado nuestros minutos de podcast pero que ya estamos trabajando en el número 33 y recordad que volvemos a finales del mes de noviembre, ya no será a finales de diciembre como hasta ahora, sino dentro de un par de meses, así que, venga, que se pasan rápido.
Antes de marcharnos no os olvidéis recibir un caluroso y un cordial saludo de todos los integrantes que han hecho posible este número 32 de Arroba Sonora.
De todos nuestros colaboradores, de Francisco Javier Pariente en la parte técnica y de Estela Landrove que estuvo aquí delante del micrófono. ¡Hasta luego!
Volver a la página de Arroba Sonora