Proyecto de Innovación Convocatoria 2018/2019 Nº de Proyecto: 115 Librerías Matlab para la presentación y procesamiento de sonidos e imágenes 2D y 3D en el aula. Dr. Ignacio Serrano-Pedraza Facultad de Psicología Departamento de Psicología Experimental Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 2 - 1. Introducción El resultado del Proyecto consta de 15 programas con más de cien funcionalidades. Ocho están dedicados a demostraciones para el estudio del Sistema Auditivo humano, cinco están dedicados a al estudio del Sistema Visual y dos están dedicados a la Colorimetría de luces y objetos. En el Anexo de este documento se presentan capturas de los quince programas con una breve descripción de las características, objetivos y funcionalidades de cada programa. Los programas pueden generar y presentar de modo controlado sonidos e imágenes 3D. Las demostraciones auditivas nos permiten generar espectrogramas para tres tipos de ventanas temporales (Gaussiana, Cauchy y Hanning), transformadas wavelet (regidas por tiempo y frecuencia) para tres tipos de ondículas (Gabor, Cauchy y Hanning) y espectrogramas utilizando el Gammatono y el Gammachirp simulando el procesamiento de la señal por los canales auditivos. Entre las demostraciones auditivas caben destacar dos programas (uno para el Gammatono y otro para el Gammachirp) donde se puede estudiar el movimiento de la membrana basilar ante la presentación de diferentes estímulos auditivos (tonos puros, ruido blanco, clicks, etc). Todas las demostraciones han sido probadas en el aula buscando que las demostraciones sean lo más intuitivas posible. Para un funcionamiento correcto de los programas es necesario tener instalado Matlab (http://www.mathworks.es) (prácticamente el 100% de los ordenadores en las aulas de la UCM tienen instalado este programa). La versión más antigua de Matlab que hemos probado correctamente ha sido la R2017a (aunque versiones anteriores hasta la R2011a podrían funcionar sin problemas). Las demostraciones funcionan tanto en sistema Windows como Mac. Para su correcto funcionamiento no se requiere un ordenador muy potente. En general, si la aplicación Matlab funciona, los programas también lo harán. Aunque lo habitual en este tipo de trabajos es hacer público sólo los ejecutables, se ha preferido, como en el proyecto docente anterior (https://eprints.ucm.es/46971/), hacer público el código fuente para que el usuario pueda ver el código y cambiarlo si lo desea. También se ha incluido, dentro de los programas información relativa a su pertinencia, así como breves nociones formales de los algoritmos desarrollados, que creemos importante que estén a disposición de los usuarios. Todos los programas están sujetos a mejoras que se irán añadiendo en sucesivas versiones. Las actualizaciones de estos programas se harán accesibles en esta página web: https://www.ucm.es/serranopedrazalab/. Por último, dado que la terminología científica utilizada habitualmente es el inglés, todos los programas se han realizado con el texto en inglés. Esto nos ofrece la posibilidad de extender su uso a entornos académicos internacionales. Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 3 - 2. Objetivos propuestos en la presentación del proyecto Este proyecto es continuación de un Proyecto de Innovación anterior. El objetivo fundamental de ambos proyectos es el desarrollo de nuevas librerías en Matlab para ayudar al profesor en la explicación de aspectos fundamentales en asignaturas como Psicología de la Percepción, Psicología de la Motivación y Emoción, Arquitectura Funcional de la Mente, entre otras, que necesitan constantemente mostrar estímulos visuales o auditivos para la correcta exposición de sus contenidos tanto en las clases teóricas como prácticas (ver ejemplos en el Anexo de este documento). Por ello, se ha aumentado el número de funcionalidades para poder abordar nuevos contenidos como: 1) El estudio colorimétrico de luces y objetos. 2) La determinación de la Función de Sensibilidad al Contraste. 3) La determinación de la Función de Sensibilidad a la Disparidad. 4) La determinación de la estéreo agudeza visual, tanto para tareas 2AFC como 4AFC. 5) La representación tiempo-frecuencia de sonidos, en particular la Transformada de Fourier a trozos (STFT) y la Transformada Wavelet Continua (CWT). 6) Simulación del procesamiento auditivo de sonidos utilizando el Gammatono y el Gammachirp. Se incluye la actividad de la membrana basilar para diferentes tipos de sonidos, siendo estas demostraciones claves para entender el procesamiento auditivo de la señal acústica. 7) Presentación de estímulos en movimiento que pueden ser enmascarados por ruido visual. Demostración clave para entender el procesamiento visual del movimiento. 3. Objetivos alcanzados Se han conseguido todos los objetivos propuestos. Se han desarrollado 15 programas con más de 20,000 líneas de código en Matlab que abordan diferentes demostraciones de estímulos y fenómenos fundamentales para el entendimiento del funcionamiento del sistema visual y auditivo humano. Nosotros creemos que todas estas demostraciones junto con las del proyecto anterior son fundamentales para el alumno en muchas asignaturas tanto en Psicología como en otras ramas científicas (Medicina, Ciencias Biológicas, Veterinaria, Otorrinolaringología, y Oftalmología), ya que se presentan demonstraciones con un carácter transversal (como la que tiene como contenido la exposición de modo intuitivo las representaciones espectrales de sonidos filtrados, o las Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 4 - demostraciones donde se incluye la actividad de la membrana basilar para diferentes tipos de estímulos auditivos) 4. Metodología empleada en el proyecto El 85% del Proyecto se ha basado en la programación propia de librerías utilizando Matlab, el 10% restante se ha dedicado a la corrección de errores y el 5% restante a la mejora de la usabilidad de los programas. Cada programa combina diferentes librerías en un solo software dotándolo de un interfaz gráfico que permite usarlo a cualquier persona aún sin conocimientos de programación (ver Anexo de este documento). Como en el proyecto previo, las nuevas librerías se han desarrollado en los ordenadores del Laboratorio de Psicofísica Visual de la Facultad de Psicología (UCM, https://www.ucm.es/serranopedrazalab/) utilizando el software matemático Matlab (http://www.mathworks.es). Se ha elegido Matlab porque (i) en todas las aulas de la UCM existen ordenadores con este programa instalado, (ii) nos permite crear interfaces gráficos fácilmente utilizables por los profesores y alumnos (ver algunos ejemplos en el anexo de este documento), (iii) proporciona una buena potencia y rapidez de cálculo, lo que hace que se puedan generar demostraciones en tiempo real durante las clases y (iv) los alumnos podrán descargarse el software e interactuar con él en sincronía con la exposición del profesor. Tras la programación de cada demostración, el software desarrollado fue distribuido a los miembros del Proyecto para probarlo, encontrar posibles errores y sugerir mejoras respecto a su usabilidad. Tras la inclusión de estas mejoras, los programas fueron testados por alumnos del curso 2019/2020, en particular, alumnos de la asignatura Psicología de la Percepción (Facultad de Psicología) con el objetivo de incorporar posibles mejoras en los programas. Una vez terminados los programas, el siguiente objetivo será dar difusión a los mismos para que estos sean utilizados por aquellos profesores y colegas de otras universidades (nacionales e internacionales) cuyas asignaturas requieran la presentación de imágenes y sonidos de modo controlado. 5. Recursos humanos El equipo humano que ha trabajado en este proyecto está compuesto por cuatro profesores del Departamento de Psicología Experimental (Facultad de Psicología, UCM) un contratado FPI y una contratada FPU: Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 5 - 1) El Dr. Ignacio Serrano Pedraza (Profesor Titular de Universidad) ha sido la persona responsable de la programación de todos los programas. Cuenta con más de 20 años de experiencia en la programación de del software matemático Matlab dentro del campo de la investigación psicofísica del sistema visual humano y cuenta con experiencia en la enseñanza de este software en asignaturas como Psicología de la Percepción, Análisis de señales en visión y audición y Arquitectura funcional de la Mente y Procesos donde las prácticas son realizadas utilizando Matlab. 2) El Dr. Vicente Sierra Vázquez (Catedrático de Universidad, actualmente Profesor Honorífico UCM) es un experto en Teoría de la Señal aplicada a Visión y Audición, cuenta con una larga experiencia docente en asignaturas como Psicología Matemática, Psicología de la Percepción y Análisis de señales con aplicaciones en visión y audición. Su participación en el proyecto ha sido fundamental para el diseño formal y la verificación de los programas relacionados con las representaciones conjuntas tiempo-frecuencia. 3) El Dr. José Javier Campos Bueno (Profesor Titular de Universidad y coordinador del Campus Virtual en la Facultad de Psicología) cuenta con una gran experiencia en el diseño de páginas web e interfaces visuales. Su amplia experiencia en el Campus Virtual desde 2003 ha sido muy útil en la usabilidad de los programas. 4) El Dr. Luis Enrique López Bascuas (Profesor Titular de Universidad) cuenta con una alta experiencia en proyectos de innovación docente, es un experto en Psicoacústica con más de 20 años impartiendo asignaturas como Psicología de la Percepción, Arquitectura funcional de la Mente y Procesos, y Análisis de señales con aplicaciones en visión y audición. Su conocimiento del Sistema Auditivo humano has sido muy útil para testar los programas dedicados a la generación y presentación de sonidos. 5) Raúl Luna del Valle, doctorando de Ignacio Serrano-Pedraza, es investigador FPI con cargo al proyecto PSI2014-51960-P, cuenta con experiencia en programación en entorno Matlab, está realizando la Tesis Doctoral sobre mecanismos visuales inhibitorios en la percepción del movimiento. Ha participado testando los programas con el objetivo de probar su usabilidad y detectar errores. 6) Sandra Arranz Paraíso, investigadora FPU y doctoranda de Ignacio Serrano- Pedraza, cuenta con experiencia en el estudio del Sistema Visual humano y en programación en entorno Matlab. Ha participado testando los programas con el objetivo de probar su usabilidad y detectar errores. Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 6 - 6. Desarrollo de las actividades El cronograma y plan de trabajo se ha dividido en tres fases: Primera fase: Los primeros 14 meses se han dedicado en su totalidad a la programación de las librerías y de los interfaces gráficos elementales. En esta primera fase sólo se tuvo en cuenta el buen funcionamiento de las librerías. Durante esta fase se decidió el número de programas para que los aspectos básicos del proyecto quedasen cubiertos con los programas desarrollados. Segunda fase: Los siguientes tres meses se han dedicado a la mejora de los interfaces gráficos. Los objetivos de esta fase son: a) que la información presentada en los programas sea la necesaria para entender las demonstraciones; b) que la organización de las ventanas sea lo más didáctica posible; c) que el tamaño del texto y las imágenes sean claramente visibles en diferentes pantallas; d) que la selección de sonidos en las demonstraciones sea lo más completa posible para que las demonstraciones cubran diferentes aspectos del procesamiento auditivo. Tercera fase: Los últimos cuatro meses se han dedicado a probar los programas, corregir errores, mejoras en el diseño intentando que el software fuese visible en diferentes plataformas (Windows, Mac) con diferentes pantallas, versiones de Matlab, etc. También se llevaron los programas al aula con el objetivo de mejorar los programas en lo posible y hacerlos didácticos y usables. En las aulas se probaron aspectos del diseño como la calidad de las imágenes presentadas, la calidad de los sonidos, y la visibilidad de los números y el texto. 7. Anexos A continuación, se describen los programas que forman parte del presente Proyecto de Innovación Docente. Mostraremos capturas de pantalla de cada programa y se realizará una descripción breve de sus funcionalidades. En la siguiente página web: https://www.ucm.es/serranopedrazalab/ (en la sección de software) se pueden ver animaciones del funcionamiento de algunos de estos programas. Nuestro objetivo es que los futuros usuarios lo puedan descargar desde esta dirección donde mantendremos actualizados los programas en caso de que surjan errores no detectados en la versión actual. Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 7 - 7.1 Menú principal El programa tiene un menú principal (ver Figura 7.1) que controla la ejecución de los diferentes programas. Presionando cada botón nos abrirá el programa correspondiente. Como se puede ver el menú principal nos da acceso a quince programas. Figura 7.1. Captura de pantalla del menú principal. 7.2 Generación de espectrogramas con diferentes ventanas temporales El objetivo fundamental de este programa es mostrar al alumno de un modo sencillo el concepto de espectrograma y su importancia para la descripción de sonido y el estudio del Sistema Auditivo Humano. El programa nos permite representar los espectrogramas (tanto en versión lineal como en logarítmica) de treinta sonidos diferentes, que incluyen, sonidos sintéticos (tonos puros, sonidos test, click, chirp, etc.) y sonidos naturales (sonidos musicales como las notas de un piano, un violín, ejemplos de voz humana, etc.). Esta demostración puede representar tres tipos de espectrogramas y representaciones conjuntas tiempo-frecuencia de la fase en función de la ventana temporal elegida (Gaussiana, Cauchy o Hanning) y cuyos parámetros pueden ser modificados a voluntad Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 8 - (ver Figura 7.2). Esta demostración, además de reproducir los sonidos, muestra ejemplos gráficos de las diferentes ventanas y de la Función de Transferencia de Modulación (FTM) de la onda analizante resultante. La frecuencia de pico se puede seleccionar para ver como la FTM va cambiando con la frecuencia temporal. Dentro del programa se incluye una descripción detallada de las transformadas y las ecuaciones utilizadas. Figura 7.2. Captura de pantalla del programa “Short_term_Fouier_Transform.m”. 7.3 Generación de espectrogramas y filtrado de señales acústicas El objetivo fundamental de este programa es mostrar al alumno de un modo sencillo el concepto de espectrograma y filtrado auditivo (ver Figura 7.3). Como en el programa anterior, este programa nos permite representar el espectrograma de sonidos (sin el espectro de fase ni la forma de las ventanas) de habla humana (vocales y palabras), tonos puros, tonos compuestos, pulsaciones (beats), ruidos, chirps, sonidos musicales, etc. Lo particular del mismo es que permite filtrar estos sonidos utilizando filtros Butterworth (paso-bajo, paso-banda y paso-alto) y tanto sus parámetros, como el orden o las frecuencias de corte o centrales, pueden cambiarse de un modo sencillo. En particular, permite manipular la presencia/ausencia de formantes en las vocales del castellano y apreciar el efecto sobre su reconocimiento. El mismo programa reproduce los sonidos tanto los originales como su versión filtrada y representa los respectivos espectrogramas tanto en versión lineal como logarítmica. Como en el anterior, dentro del Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 9 - programa se incluye una descripción detallada de las transformadas y las ecuaciones utilizadas. Figura 7.3. Captura de pantalla del programa “Short_term_Fourier_Transform_Filters.m”. 7.4 La Transformada Wavelet El objetivo fundamental de este programa es mostrar al alumno de un modo sencillo el concepto de Transformada Wavelet ( y su representación asociada o escalograma). Este programa utiliza los mismos estímulos auditivos de los programas anteriores. En esta demostración se utilizan tres tipos de ondículas (Gabor, Cauchy y Hanning) cuya anchura de banda en octavas puede manipularse a voluntad (ver Figura 7.4). Las ondículas no han sido elegidas al azar: capuran propiedades de sensores neurobiológicos y psicofísicos implicados en la percepción humana. La demostración nos presenta ejemplos de la ondícula analizante (parte real e imaginaria) y de su envolvente. También se muestra la Función de Transferencia de Modulación (FTM) correspondiente. La frecuencia de sintonía se puede seleccionar para ver como la FTM va cambiando con la frecuencia temporal. La demostración nos proporciona una imagen de la magnitud de las respectivas transformadas wavelet (tanto en versión lineal como logarítmica) así como de la fase conjunta en el espacio tiempo-frecuencia temporal. Además, se incluyen los gráficos de las ondículas analizantes y su correspondiente espectro de amplitud. Tanto esta demostración como la presentada en el apartado 7.2 son muy útiles para enseñar al alumno la diferencia entre resolución en el dominio del tiempo y resolución en el dominio Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 10 - de la frecuencia. Por ejemplo, mediante un sonido test temporalmente localizado (e.g. click) se puede apreciar cómo en la Transformada Wavelet la resolución en el tiempo aumenta con la frecuencia temporal (en el espectrograma visto en 7.2 la resolución en el tiempo es independiente de la frecuencia temporal), mientras que con ejemplos de sonidos como tres tonos puros se aprecia que la resolución en frecuencia temporal aumenta (los componentes de baja frecuencia son más discriminables) según disminuye la frecuencia temporal. Dentro del programa existe una descripción detallada de las transformadas y las ecuaciones utilizadas. Figura 7.4. Captura de pantalla del programa “Wavelet_Transform.m”. 7.5 La Transformada Wavelet y filtrado de señales acústicas El objetivo fundamental de este programa es mostrar al alumno de un modo sencillo el concepto de Transformada Wavelet (o escalograma) y el efecto del filtrado. Como en la descripción del programa 7.3 esta demostración incluye el filtrado de señales utilizando los filtros Butterworth (ver Figura 7.5). Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 11 - Figura 7.5. Captura de pantalla del programa “Wavelet_Transform_Filters.m”. 7.6 El filtro Gammatono y la simulación del movimiento de la Membrana Basilar El objetivo fundamental del siguiente programa es mostrar una simulación del movimiento de la membrana basilar a partir del filtrado de la señal auditiva utilizando un banco de filtros gammatono. El programa permite seleccionar y crear diferentes sonidos combinando tonos puros con ruido blanco o presentando clicks aislados o trenes de clicks. El programa nos presenta un espectrograma (a veces llamado “gammatonegram”) construido a partir del filtrado con el gammatono. Eligiendo la parte real de la salida se aprecia una simulación del mapa de activación coclear (en niveles sonoros bajos y moderados) que se utilizará para la simulación del movimiento. El programa también permite elegir la duración de la simulación. Además, nos permite sumar hasta cinco tonos puros diferentes que pueden variar en amplitud, frecuencia temporal y fase. En la Figura 7.6 se puede ver una captura de este programa. En este ejemplo, el sonido está formado por la suma de dos tonos puros (1000 y 2500 Hz) y como se puede ver en el panel inferior, en azul está representado un instante temporal de este movimiento y su envolvente (en rojo). Nótese que la envolvente es casi simétrica y no reproduce la forma asimétrica de la envolvente encontrada por von Bèkèsy. Mas importante: nótese que el pico (el máximo) de la envolvente coincide con las frecuencias temporales de los tonos puros componentes por lo que es un programa ideal para explicar la relevancia de la Transformada de Fourier en la percepción auditiva y la Ley acústica de Ohm-Helmholtz. El alumno puede ver y oír cómo un sonido complejo, que físicamente está formado por tonos puros, es descompuesto por el oído en sus tonos puros componentes y cómo el ser Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 12 - humano puede percibir esos tonos puros de forma separada siempre que la distancia en frecuencia temporal entre los tonos supere un cierto valor crítico. Dentro del programa existe una descripción detallada de las transformadas y las ecuaciones utilizadas. Figura 7.6. Captura de pantalla del programa “Gammatone_Basilar_membrane.m”. 7.7 El filtro auditivo Gammatono El objetivo fundamental de esta demostración es explicar el filtrado de señales auditivas por el filtro auditivo Gammatono. La demonstración utiliza los treinta estímulos auditivos descritos anteriormente. Para el filtro Gammatono se pueden elegir las anchuras rectangulares equivalentes más aceptadas (Cambridge o Múnich). El programa nos presenta un espectrograma (a veces llamado “gammatonegram”) construido a partir del filtrado con el gammatono (se puede elegir la parte real que es una simulación del mapa de activación coclear). Esta demostración nos presenta las funciones de respuesta al impulso (parte real e imaginaria) y la envolvente. También se muestra la Función de Transferencia de Modulación (FTM) de la respuesta al impulso. La frecuencia de sintonía se puede seleccionar para ver cómo la FTM va cambiando con la frecuencia temporal. En el ejemplo mostrado en la Figura 7.7 se puede ver la respuesta ante un sonido artificial (e.g. click). Como se puede ver la respuesta de los filtros Gammatono selectivos a frecuencias temporales altas ocurre antes (i.e. la respuesta al impulso en la membrana basilar ocurre antes) que la respuesta de los filtros selectivos a frecuencias temporales bajas. Esta demostración es mucho más clara utilizando el programa descrito en el apartado 7.6 y seleccionando el estímulo “click”. Dentro del programa existe una descripción detallada de las transformadas y las ecuaciones utilizadas. Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 13 - Figura 7.7. Captura de pantalla del programa “Gammatone_demo.m”. 7.8 El filtro auditivo Gammachirp y la simulación del movimiento de la Membrana Basilar En un paso más que en la demostración del apartado 7.6, con esta demostración se pretende mostrar de modo realista la simulación del movimiento de la membrana basilar ante diferentes estímulos auditivos utilizando el filtro auditivo Gammachirp (Irino & Patterson, 1997, 200?, 2001). Este filtro, cuya respuesta al impulso es básicamente una función AM-FM, simula con bastante precisión la asimetría de la FTM dependiente del nivel sonoro encontrada en datos de enmascaramiento con humanos y también en la envolvente de la respuesta al impulso de la membrana basilar encontrada en fisiología. La Figura 7.8. muestra un instante temporal de la simulación del mismo ejemplo del apartado 7.6. Utilizando un valor para el parámetro c que regula la modulación en frecuencia (parámetro de asimetría o chirp factor) igual a -2 (que corresponde aproximadamente a un sonido con un nivel de 50 dB) se puede ver claramente que ahora la envolvente (línea roja, panel inferior) presenta la asimetría encontrada por von Bèkèsy en las ondulaciones de la membrana basilar como respuesta a un tono puro, asimetría que no muestra el filtro auditivo Gammatono. En este ejemplo se ha elegido representar la envolvente en función de la distancia en milímetros desde el ápice de la membrana basilar. Nótese que las dos envolventes son muy similares en anchura (algo que no ocurre si se representan en función de la frecuencia temporal). Este programa será de Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 14 - mucha utilidad para explicar múltiples fenómenos auditivos como el de la asimetría en el enmascaramiento en el que ruidos paso-banda (o tonos) centrados en una frecuencia temporal baja enmascaran con facilidad tonos de frecuencia temporal alta, y, en cambio, ruidos centrados en una frecuencia temporal alta enmascaran con menos fuerza un tono de baja frecuencia temporal. Figura 7.8. Captura de pantalla del programa “Gammachirp_Basilar_membrane.m”. 7.9 El filtro auditivo Gammachirp El objetivo fundamental de esta demostración es explicar el filtrado de señales auditivas por el filtro auditivo Gammachirp. La demonstración utiliza los treinta estímulos auditivos descritos anteriormente. Para el filtro Gammachirp se pueden elegir las anchuras rectangulares equivalentes más aceptadas (Cambridge o Múnich). El programa nos presenta un espectrograma construido a partir del filtrado con el Gammachirp. De modo interesante, se puede cambiar la escala para mostrar la frecuencia temporal asintótica, la frecuencia de pico, o la distancia en milímetros desde el ápice de la membrana basilar, en este último caso, la parte real correspondería a una simulación del mapa de activación coclear. Esta demostración nos presenta las funciones de respuesta al impulso (parte real e imaginaria) con su envolvente y la FTM (asimétrica) correspondiente a esa respuesta. La frecuencia asintótica se puede seleccionar para ver cómo la ventana va cambiando con la frecuencia temporal (nótese que esta frecuencia no coincide con la de pico). Se Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 15 - puede cambiar el parámetro c de tal manera que cuando c=0 el filtro Gammachirp corresponde al filtro Gammatono. Dentro del programa existe una descripción detallada de las transformadas y las ecuaciones utilizadas. Figura 7.9. Captura de pantalla del programa “Gammachirp_demo.m”. 7.10 Determinación de la Función de Sensibilidad al Contraste (FSC) El objetivo de la siguiente demostración es permitir la determinación de modo intuitivo de la FSC-1D. Además se muestra, también de modo intuitivo, el descubrimiento experimental que inició la aplicación del Análisis de Fourier al estudio de la visión espacial humana (Campbell y Robson, 1968), como la ley acústica de Ohm-Helmholtz lo hizo en audición. En la demostración se presentan dos tipos de modulaciones de luminancia (sinusoidal y de onda cuadrada). La frecuencia espacial varía de modo logarítmico (de izquierda a derecha) y el contraste también (desde la parte superior a la parte inferior). Antes de empezar la persona tiene que medir la anchura de las imágenes y la distancia de observación; esa medición recalculará automáticamente las frecuencias espaciales (puesto que anchura de la imagen físicamente no cambia, cambian los c/deg). La persona tiene que dibujar con el ratón el límite de contraste donde ya no percibe las líneas. Tras dibujar el límite en la imagen con perfil sinusoidal, el programa ajusta una función a la FSC y nos indica la frecuencia espacial donde tenemos el máximo y nuestra agudeza visual. Si dibujamos el límite de la imagen con perfil de onda cuadrada, además de la respectiva FSC, se calcula la razón de las sensibilidades onda cuadrada a onda Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 16 - seno en función de la frecuencia espacial. El descubrimiento de Campbell y Robson (1968) es que si el SVH es sensible a los enrejados componentes de las imágenes, de acuerdo con el desarrollo en serie de Fourier de la onda cuadrada la razón debería ser 4/pi para frecuencias espaciales superiores a 1 c/deg. Figura 7.10. Captura de pantalla del programa “CSF_measurement.m”. 7.11 Determinación de la Función de Sensibilidad la Disparidad El objetivo de esta demostración es determinar la Función de sensibilidad a la disparidad. Para ello se presentan dos estereogramas de puntos aleatorios con corrugaciones sinusoidales. Antes de empezar la persona tiene que medir el ancho de las imágenes y la distancia de observación. Esto recalculará las frecuencias espaciales (la anchura de la imagen físicamente no cambia, cambian los c/deg). La imagen de la izquierda muestra las corrugaciones verticales y la de la derecha, las horizontales. Para que la demostración sea correcta es necesario que los alumnos lleven puestas unas gafas 3D polarizadas (gafas con un filtro rojo y un filtro verde o azul). El programa genera corrugaciones sinusoidales donde cuya frecuencia espacial varía logarítmicamente y la disparidad también. Para generar los estereogramas se han utilizado gaussianas de tal Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 17 - manera que se pueden conseguir disparidades subpixel (disparidad < 1 pixel). Por ello, aunque no es un programa 100% calibrado se puede utilizar de modo aproximado para determinar umbrales estereoscópicos. Por otro lado, los estereogramas se han diseñado para que los puntos (gaussianas) no se solapen. Para la correcta observación de los estereogramas hay que poner el filtro rojo de las gafas enfrente del ojo izquierdo. La tarea de la persona es dibujar con el ratón el límite de disparidad donde ya no se aprecian las corrugaciones. Tras esto el programa ajusta una función y nos indica la frecuencia espacial para la que tenemos el máximo de sensibilidad y la agudeza visual espacial estereoscópica. Si dibujamos el límite en las dos imágenes, el programa calcula una razón de las sensibilidades (horizontal/vertical). Los resultados deberían mostrar la conocida anisotropía H/V de la visión estereoscópica (Bradshaw & Rogers, 1999), donde la sensibilidad a corrugaciones horizontales es superior que para las verticales para frecuencias espaciales inferiores a 1 c/deg. Figura 7.11 Captura de pantalla del programa “DSF_measurement.m”. Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 18 - 7.12 Determinación de la agudeza visual estereoscópica (2AFC) El objetivo de esta demostración es proporcionar al estudiante un instrumento para medir su propia agudeza estereoscópica con una buena precisión. Antes de empezar el experimento, el estudiante tiene que medir la anchura los estímulos y la distancia de observación. Esto es fundamental para los cálculos de la estereoagudeza en segundos de arco (arcsec). También se puede cambiar el número de ensayos, el tamaño del cuadrado central y el número de puntos por imagen. Para que la demostración sea correcta es necesario que los alumnos lleven puestas unas gafas 3D polarizadas (gafas con un filtro rojo y un filtro verde o azul). Para la correcta observación de los estereogramas hay que poner el filtro rojo enfrente del ojo izquierdo. En esta demostración la tarea consiste en determinar en cuál de las dos posiciones (2AFC) aparece un cuadrado que sobresale del fondo (ver Figura 7.12). Para la determinación del umbral estereoscópico se utilizan escaleras adaptativas Bayesianas (e.g. ZEST) para calcular la disparidad que se presenta en cada ensayo. En concreto la disparidad que se presenta en un ensayo depende de la respuesta dada en el ensayo anterior. Se pueden cambiar parámetros de la escalera como la anchura y la probabilidad de equivocarse, así como la probabilidad de convergencia asociada al valor del umbral. El procedimiento y los valores por defecto son los óptimos para esta tarea (ver Serrano-Pedraza et al. 2020, Plos One) por lo que se recomienda no modificar estos parámetros. Figura 7.12 Captura de pantalla del programa “Stereoacuity_2AFC.m”. Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 19 - 7.13 Determinación de la agudeza visual estereoscópica (4AFC) Como en la demostración del apartado 7.12 El objetivo de esta demostración es proporcionar al estudiante un instrumento para medir su propia agudeza estereoscópica con una buena precisión. La diferencia fundamental es que se utiliza una tarea de elección forzada de cuatro alternativas (4AFC) (ver Figura 7.13). Esta tarea es la recomendada para niños o personas sin experiencia previa en estudios psicofísicos (Vancleef et al. 2018, Plos One). Figura 7.13 Captura de pantalla del programa “Stereoacuity_4AFC.m”. 7.14 Movimiento y enmascaramiento visual El objetivo de la siguiente demostración es mostrar el efecto que tienen diferentes máscaras visuales sobre la discriminación del movimiento. En la Figura 7.14 se muestra una captura del programa. El programa permite cambiar la frecuencia espacial, contraste, velocidad y dirección de la señal (enrejado sinusoidal). También permite elegir el tipo de máscara, por ejemplo, se puede elegir como máscara enrejados sinusoidales (sinusoidal Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 20 - noise) donde se puede variar su frecuencia espacial y contraste. La fase de esta máscara cambia en cada frame de modo aleatorio. También se puede elegir ruido blanco 1D como estímulo máscara. Este ruido puede ser filtrado utilizando filtros paso-bajo, paso-banda, paso-alto y notch tanto con perfil ideal como Butterworth. Lo interesante de esta demostración es que se puede cambiar la dirección de movimiento mientras se está presentando el estímulo; también se puede cambiar el tipo de filtro a la vez que se mueve la señal. Es un programa muy versátil que creemos va a ayudar al profesor en las explicaciones y al alumno a entender cómo funciona el enmascaramiento en la percepción del movimiento. Esta demostración también puede ser utilizada para mostrar la existencia de canales de movimiento. Figura 7.14 Captura de pantalla del programa “Stereoacuity_4AFC.m”. 7.15 Colorimetría aplicada a luces El objetivo de la siguiente demostración es enseñar a los alumnos la caracterización colorimétrica de luces. El programa permite seleccionar con el ratón la potencia relativa de ambas luces (de inicio en la Figura 7.15 se muestra un ejemplo pregrabado). El programa calcula los índices más relevantes de los sistemas CIE 1931, CIE 1976 (L* u* v*) y CIE 1976 (L* a* b*). También muestra los diagramas de cromaticidad CIE 1931 y CIE 1976 (L* u* v*) donde las luces se van ha representar. Para cada luz, el programa calcula Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 21 - la claridad, el croma, la saturación y el ángulo de matiz. Además, el programa permite comparar dos luces mediante el índice de diferencias de color totales, así como el índice de las diferencias en matiz. Para ambos índices se puede elegir el sistema CIE 1976 (L* u* v*) o el sistema CIE 1976 (L* a* b*). La demostración es muy útil para enseñar los aspectos básicos de la colorimetría a los alumnos y permite mostrar fenómenos como el de las luces metaméricas, o el de las luces complementarias. Finalmente, el programa realiza una simulación de la luz generada transformando el sistema CIEXYZ en el sistema sRGB (ver Figura 7.15). Figura 7.15 Captura de pantalla del programa “Colorimetry_lights.m”. 7.16 Colorimetría aplicada a objetos La siguiente demostración hace los mismos cálculos que la demostración presentada en el apartado 7.15 pero aplicado a objetos. En este caso el alumno puede modificar con el ratón la reflectancia del objeto y puede elegir dos tipos de iluminantes, el iluminante ideal E o el iluminante D65. Proyecto de Innovación (2018/2019) Dr. Ignacio Serrano-Pedraza - 22 - Figura 7.16 Captura de pantalla del programa “Colorimetry_objects.m”. Agradecimientos Parte de los equipos informáticos utilizados para la programación del software han sido adquiridos gracias al Proyecto de Investigación del Ministerio de Ciencia, Innovación y Universidades (Spain) PGC2018-093406-B-I00.