Efectos de observar la mirada y el rostro de individuos típicos y autistas mientras conversan




POR ROSER CAÑIGUERAL, JAMIE A WARD, ANTONIA F DE C HAMILTON

Fuente: SAGE Journals

Fotografía: Jürgen Fälchie

Tablas y figuras: de los autores


Primera publicación 27 de agosto de 2020 Artículo de investigación

https://doi.org/10.1177/1362361320951691

Información del artículo

Artículo publicado por primera vez en línea: 27 de agosto de 2020

Roser Cañigueral (1), Jamie A Ward (1, 2), Antonia F de C Hamilton (1)

1. University College London, Reino Unido.

2. Goldsmiths, Universidad de Londres, Reino Unido.

Autor para correspondencia:

Roser Cañigueral, Departamento de Psicología Clínica, Educativa y de la Salud de la UCL, 26 Bedford Way, Londres WC1H 0AP, Reino Unido. Correo electrónico: roser.canigueral.15@ucl.ac.uk

El artículo de https://creativecommons.org/licenses/by/4.0/This se distribuye bajo los términos de la Licencia de Atribución 4.0 de Creative Commons (https://creativecommons.org/licenses/by/4.0/) que permite cualquier uso, reproducción y distribución de la obra sin más permiso siempre que se atribuya la obra original según se especifica en la página de SAGE y Acceso Abierto (https://us.sagepub.com/en-us/nam/open-access-at-sage).

Resumen


La comunicación con los demás depende de intercambios coordinados de señales sociales, como la mirada y las muestras faciales. Sin embargo, esto sólo puede ocurrir cuando los compañeros son capaces de verse el uno al otro. Aunque estudios anteriores informan de que los individuos autistas tienen dificultades para planificar la mirada y hacer despliegues faciales durante la conversación, las pruebas de las tareas diarias en la vida real son escasas y variadas. A través de dos estudios, aquí investigamos cómo la mirada ocular y los despliegues faciales de los individuos autistas típicos y de alto funcionamiento son modulados por la creencia en ser vistos y el potencial para mostrar la verdadera dirección de la mirada. Los participantes fueron grabados con un sistema de seguimiento ocular y cámara de vídeo mientras completaban una tarea estructurada de preguntas y respuestas con un confederado en tres contextos sociales: vídeo pregrabado, videollamada y cara a cara. Los participantes típicos miraban menos al confederado y producían más despliegues faciales cuando eran observados y cuando hablaban. Contrariamente a nuestras hipótesis, la mirada y los patrones de movimiento facial de los participantes autistas fueron en general similares a los del grupo típico. Esto sugiere que los participantes autistas de alto rendimiento son capaces de usar la mirada y las muestras faciales como señales sociales. En estudios futuros será necesario investigar en qué medida esto refleja el comportamiento espontáneo o el uso de estrategias de compensación.

Resumen general

Cuando nos comunicamos con otras personas, intercambiamos una variedad de señales sociales a través de la mirada y las expresiones faciales. Sin embargo, los intercambios coordinados de estas señales sociales sólo pueden ocurrir cuando las personas involucradas en la interacción son capaces de verse unas a otras. Aunque estudios anteriores informan de que los individuos autistas tienen dificultades para utilizar la mirada y las expresiones faciales durante las interacciones sociales, las pruebas de tareas que implican conversaciones reales cara a cara son escasas y variadas. Aquí investigamos cómo la mirada y las expresiones faciales de los individuos autistas típicos y de alto funcionamiento se modulan por la creencia de ser vistos por otra persona, y por estar en una interacción cara a cara. Se grabó a los participantes con un sistema de seguimiento ocular y de cámara de vídeo mientras realizaban una tarea estructurada de preguntas y respuestas con un confederado en tres contextos sociales: vídeo pregrabado (no creer en ser visto, no estar cara a cara), videollamada (creer en ser visto, no estar cara a cara) y cara a cara (creer en ser visto y estar cara a cara). Los participantes típicos miraban menos al confederado y hacían más expresiones faciales cuando eran observados y cuando hablaban. Contrariamente a nuestras hipótesis, la mirada y los patrones de expresión facial de los participantes autistas fueron en general similares a los del grupo típico. Esto sugiere que los participantes autistas de alto rendimiento son capaces de usar la mirada y las expresiones faciales como señales sociales. En estudios futuros será necesario investigar en qué medida esto refleja el comportamiento espontáneo o el uso de estrategias de compensación.

Palabras clave: autismo, ser observado, doble función de la mirada, mirada ocular, expresiones faciales.


La comunicación con otras personas se basa en complejos intercambios de señales sociales, mediadas por la mirada, las expresiones faciales, el habla o los gestos. Estudios anteriores sugieren que los individuos autistas tienen dificultades para intercambiar señales sociales, particularmente a través de la mirada, pero las pruebas son contradictorias (Falck-Ytter & Von Hofsten, 2011). Una razón para ello podría ser que los diseños experimentales tradicionales en la investigación cognitiva no son verdaderamente interactivos (Redcay & Schilbach, 2019; Schilbach et al., 2013). El examen de los patrones de la mirada de las personas autistas en las interacciones en vivo, donde la mirada tiene la doble función de percibir y señalar (Argyle y Cook, 1976; Gobel y otros, 2015), podría contribuir a comprender qué mecanismos cognitivos subyacentes al comportamiento de la mirada se ven comprometidos en el autismo. El presente estudio aborda esta cuestión comprobando sistemáticamente cómo la "observación" frente a la "interacción" modula el comportamiento de la mirada de los individuos típicos y autistas.

La mirada durante las interacciones sociales

Tradicionalmente, la investigación que estudia el comportamiento de la mirada se ha centrado en cómo usamos nuestros ojos para percibir la información de las fotos y los vídeos. Las primeras investigaciones sobre la atención visual mostraron que nuestros movimientos oculares están sesgados para atender a la ubicación en la escena más destacada (Itti & Koch, 2001; Koch & Ullman, 1985; Veale et al., 2017). Sin embargo, en las escenas sociales, la atención visual está sesgada hacia los rostros y los ojos de otras personas (Bindemann et al., 2005; Birmingham et al., 2009). Este sesgo preferencial para atender a los rostros probablemente se debe a la necesidad de maximizar la información que extraemos de los demás durante las interacciones sociales (Cañigueral & Hamilton, 2019b; Yang et al., 2016). En línea con esto, Kendon (1967) propuso que durante la conversación nuestros ojos vigilen los estados de atención y las expresiones faciales de otras personas para asegurar la comprensión y aprobación mutuas (Efran, 1968; Efran & Broughton, 1966; Kleinke, 1986).

Investigaciones recientes han utilizado diseños más válidos desde el punto de vista ecológico (por ejemplo, interacciones en vivo) para comprender cómo usamos nuestros ojos para señalar información a los demás. Hasta ahora, los hallazgos sugieren que hay poca relación entre los patrones de la mirada en las tareas basadas en la computadora y los patrones de la mirada en el mundo real. Por ejemplo, los participantes sentados en una sala de espera miran menos a un confederado en vivo que también está esperando en la sala, que al mismo confederado en un videoclip (Laidlaw et al., 2011). Los participantes pueden apartar la mirada del confederado en vivo para señalar que no tienen interés en iniciar una interacción con un extraño (es decir, la norma social de desatención civil; Foulsham y otros, 2011; Goffman, 1963), o para reducir la excitación asociada al contacto visual en las interacciones en vivo (es decir, la función expresiva de la mirada descrita por Kendon) (Argyle y Dean, 1965; Kendon, 1967; Pönkänen y otros, 2011). Esto sugiere que en las interacciones vivas no comunicativas la función señalizadora de la mirada anula nuestro sesgo preferente de atender a los rostros.

Sin embargo, todavía no está claro cómo cambian los patrones de la mirada de contextos comunicativos pregrabados a contextos comunicativos en vivo, en los que se requiere que los participantes se comprometan activamente con el confederado (por ejemplo, en una conversación) (véanse Cañigueral y Hamilton, 2019a; Mansour y Kuhn, 2019, para dos estudios recientes sobre esta cuestión). Una característica importante de los intercambios comunicativos es que las pautas de la mirada están coordinadas con otras señales sociales, como el habla. En un estudio fundamental, Kendon (1967) descubrió que las transiciones entre los estados de hablante y oyente (es decir, la toma de turnos) son moduladas por la mirada, lo que sugiere que nuestros ojos tienen una función reguladora. Por ejemplo, los oradores tienden a desviar la mirada cuando empiezan a hablar y cuando dudan (para indicar que van a decir algo), pero dirigen la mirada al oyente cuando están terminando una declaración (para indicar que el oyente puede tomar el turno) (Hessels y otros, 2019; Ho y otros, 2015; Kendon, 1967). Por otra parte, los oyentes miran a los oradores la mayor parte del tiempo para indicar interés y atención (Ho et al., 2015; Kendon, 1967). En consonancia con esto, se ha comprobado que los participantes típicos dirigen más la mirada a la cara del interlocutor cuando están escuchando que cuando hablan (Cañigueral y Hamilton, 2019a; Freeth y Bugembe, 2019; Mansour y Kuhn, 2019; Vabalas y Freeth, 2016; Von dem Hagen y Bright, 2017). En conjunto, estos hallazgos ilustran cómo en las interacciones comunicativas en vivo planificamos nuestros movimientos oculares en relación con las señales sociales que se intercambian con nuestra pareja, combinando así las funciones de percepción y señalización de la mirada.

La mirada en el autismo

El autismo es una condición del desarrollo neurológico caracterizada por dificultades en la interacción interpersonal y la comunicación (Asociación Psicológica Americana, 2013). Un rasgo distintivo del autismo es el comportamiento anormal de la mirada en los niños (Zwaigenbaum y otros, 2005), pero las pruebas en los adultos autistas son contradictorias: algunos estudios que utilizan imágenes y vídeos como estímulo sugieren que los adultos autistas evitan el contacto visual, mientras que otros muestran que tienen patrones de mirada típicos (Chita-Tegmark, 2016; Falck-Ytter & Von Hofsten, 2011; Von dem Hagen & Bright, 2017). Si bien las atipicidades en el comportamiento autista de la mirada se han relacionado anteriormente con un menor interés individual en las interacciones sociales (teoría de la motivación social: Chevallier y otros, 2012), propuestas recientes sugieren que las dificultades sociales en el autismo son el resultado de perturbaciones a nivel interpersonal, es decir, en la sintonía mutua de las señales de cada uno durante los intercambios sociales dinámicos (hipótesis de desatención dialéctica: Bolis y otros, 2018). Así pues, para comprender plenamente los mecanismos cognitivos que subyacen a las dificultades sociales en el autismo, es necesario estudiar el comportamiento de la mirada en las interacciones en vivo, en las que las pautas de la mirada resultan de la interacción de sus funciones de percepción y señalización.

Son escasos los estudios sobre el comportamiento de la mirada de las personas autistas durante las interacciones en vivo. Hasta donde sabemos, ningún estudio ha comparado sistemáticamente los patrones de la mirada de personas autistas diagnosticadas clínicamente en interacciones en vivo con los de interacciones pregrabadas, por lo que se desconoce hasta qué punto planifican los movimientos oculares para señalar información a los demás. No obstante, un estudio reciente (Von dem Hagen & Bright, 2017 Experimento 1) encontró que, mientras que los participantes típicos con rasgos autistas bajos dirigían menos la mirada a un video que creían que estaba en vivo que a un video-clip pregrabado, esta diferencia estaba ausente en los participantes típicos con rasgos autistas altos. Esto sugiere que los individuos autistas podrían no utilizar la función de señalización de la mirada.

Una cuestión conexa es si las personas autistas coordinan la mirada con otras señales sociales (por ejemplo, el habla) durante los intercambios comunicativos en vivo. Sólo un estudio ha examinado los patrones de la mirada de adultos autistas típicos frente a los diagnosticados clínicamente durante la conversación (Freeth & Bugembe, 2019), y dos estudios han comparado adultos típicos con rasgos autistas bajos frente a los altos (Vabalas & Freeth, 2016; Von dem Hagen & Bright, 2017 Experimento 2). Mediante el uso de tareas de preguntas y respuestas sobre la alimentación de vídeo en línea o interacciones cara a cara, estos estudios informan que los adultos típicos/de rasgos bajos y los autistas/de rasgos altos siguen patrones de mirada similares cuando alternan entre los roles de hablante y de oyente. Sin embargo, también se ha comprobado que los adultos con rasgos autistas altos pasan menos tiempo mirando a un confederado en vivo que los participantes con rasgos autistas bajos (independientemente del estado del hablante o del oyente) (Von dem Hagen & Bright, 2017 Experimento 2), en particular en la región de los ojos (Hessels y otros, 2018). Podría ser que a los individuos autistas les resulte difícil seguir la dinámica espacio-temporal de las interacciones sociales en vivo (Bolis et al., 2018; Cañigueral & Hamilton, 2019b): esto podría imponer mayores exigencias cognitivas, lo que a su vez reduce la mirada dirigida a los rostros. El estudio de la forma en que se desarrollan los patrones de la mirada de las personas típicas y autistas a lo largo del tiempo y en relación con otras señales sociales podría dar lugar a una mayor comprensión de cuáles son los componentes cognitivos de la planificación de la mirada que se ven comprometidos en el autismo.

El presente estudio

Este trabajo investiga cómo los patrones típicos y autistas de la mirada se modulan por (1) la creencia en ser observado y (2) el potencial para mostrar la verdadera dirección de la mirada (es decir, si la dirección de la mirada real coincide con la dirección de la mirada percibida). Los estudios anteriores se han centrado en los efectos relacionados con la creencia en ser observado comparando los vídeos pregrabados con las interacciones entre videollamadas/cara a cara, lo que proporciona una prueba clara de la función de señalización de la mirada. Sin embargo, se ha prestado poca atención a la posibilidad de mostrar la verdadera dirección de la mirada. Esto es particularmente interesante en el contexto de las videollamadas, que se utilizan cada vez más en estudios de investigación para simular interacciones sociales en vivo. Debido a la posición de la cámara de vídeo, en las videoconferencias hay un desajuste entre la dirección de la mirada verdadera y la percibida: esto puede limitar la función de señalización de la mirada porque se percibirá que no está plenamente coordinada con otras señales sociales (por ejemplo, el habla). Así pues, la comparación de las videollamadas con las interacciones cara a cara permite manipular aspectos más sutiles de la función de señalización de la mirada, y también puede informar sobre la validez externa de las conclusiones obtenidas en los montajes de videollamadas.

En dos estudios se ensayó una muestra de participantes típicos (Estudio piloto; véase el material complementario S1) y una muestra de participantes típicos y autistas emparejados (Estudio sobre el autismo; véase el presente estudio). En cada estudio, los participantes se dedicaron a una tarea de preguntas y respuestas habladas con un confederado (actor profesional) en tres contextos sociales diferentes: Vídeo (videoclips pregrabados del confederado: la mirada sólo tiene una función de percepción), Videollamada (videollamada en vivo con el confederado: la mirada tiene funciones de percepción y señalización limitadas) y Real (interacción en vivo con el confederado: la mirada tiene funciones de percepción y señalización completas). Estos contextos sociales diferían en la creencia de los participantes en ser observados y en su potencial para mostrar la verdadera dirección de la mirada, lo que creaba niveles gradualmente crecientes de validez ecológica (figura 1 a)).



Figura 1. Diseño del estudio: a) diseño experimental y fotografías de muestra de las condiciones, tanto para el Estudio Piloto como para el Estudio del Autismo; b) calendario para un ensayo en la condición de Video.

A través de los tres contextos sociales, grabamos las miradas de los participantes usando rastreadores oculares. Primero analizamos los datos de la mirada agregados a través de toda la tarea para cada condición. Basándonos en nuestros hallazgos en el Estudio Piloto, esperábamos que los participantes típicos dirigieran menos la mirada hacia el confederado en las condiciones de video llamada y real en comparación con la condición de video. No predijimos ninguna diferencia entre las condiciones de VideoCall y Real, ya que nuestra sutil manipulación para la dirección de la mirada verdadera es probablemente difícil de capturar usando medidas agregadas. Además, si los individuos autistas no planean el comportamiento de la mirada para enviar señales (Von dem Hagen & Bright, 2017 Experimento 1), no deberíamos encontrar diferencias entre las condiciones para el grupo autista. También esperábamos que la proporción de mirada dirigida al confederado fuera menor en el grupo autista en comparación con el grupo típico para todas las condiciones (Von dem Hagen & Bright, 2017 Experimento 2).

Luego estudiamos la dinámica de la mirada en relación con el habla en las diferentes condiciones. En línea con estudios anteriores (Freeth & Bugembe, 2019; Vabalas & Freeth, 2016; Von dem Hagen & Bright, 2017 Experimento 2), predijimos que tanto los participantes típicos como los autistas dirigirían más la mirada al confederado cuando escuchaban que cuando hablaban. Basándonos en nuestros hallazgos en el estudio piloto, también predijimos que, si este efecto estaba estrictamente relacionado con la regulación de la toma de turnos, sólo sería cierto para la videollamada y las condiciones reales. Sin embargo, si las demandas cognitivas asociadas a la percepción de los rostros (Beattie, 1981; Glenberg et al., 1998; Markson & Paterson, 2009) modulan la planificación de la mirada mientras se habla, el efecto sería cierto para las tres condiciones. El estudio piloto también reveló que los participantes típicos miraban menos al confederado al principio y al final de los ensayos en las condiciones de videollamada y real, en comparación con la condición de vídeo, probablemente para reducir la excitación. Debido a que en el estudio sobre el autismo teníamos información más precisa sobre el tiempo de los turnos, esperábamos ver también un efecto similar durante la toma de turnos, probablemente relacionado con la regulación de la conversación. Además, predijimos que los participantes autistas no mostrarían tales diferencias entre las condiciones o con el tiempo.

Finalmente, realizamos un análisis exploratorio del movimiento facial de los participantes. Estudios previos han encontrado que los participantes hacen más despliegues faciales cuando están siendo observados (Chovil, 1991b; Fridlund, 1991; Hietanen et al., 2019), sugiriendo un papel para los despliegues faciales en la comunicación (Chovil, 1991a; Crivelli & Fridlund, 2018). Probamos si los participantes típicos mueven más su cara cuando son observados y mientras hablan en comparación con los que escuchan. Un reciente meta-análisis también ha encontrado que los participantes autistas son menos propensos a producir espontáneamente despliegues faciales (Trevisan et al., 2018), por lo que esperábamos que el grupo autista no mostrara diferencias en el movimiento facial entre las condiciones o ventanas de tiempo, y que hiciera menos despliegues faciales que el grupo típico.

Materiales y métodos

Los participantes y el confederado

El estudio piloto mostró un gran tamaño de efecto y potencia para el efecto principal de la condición en la mirada dirigida a los ojos del confederado (n2p≈0.2 y potencia ≈ 0.9 para los análisis tanto agregados como de curso temporal). En el caso del Estudio sobre el autismo, un análisis de la potencia indicó un tamaño de muestra necesario de 26 participantes por grupo (es decir, un total de 52 participantes) para un tamaño de efecto y potencia similares. Así pues, se reclutó un grupo de 26 adultos típicos y 26 adultos autistas de alto funcionamiento utilizando la base de datos sobre el autismo de la institución del autor. Ambos grupos fueron emparejados en cuanto a edad, género, destreza manual y cociente de inteligencia (IQ; WAIS-III Reino Unido, Wechsler, 1999a, 1999b), pero difirieron en cuanto al cociente de autismo (AQ; Baron-Cohen y otros, 2001) (véase la tabla 1). No se registraron datos específicos sobre el origen étnico, la situación socioeconómica y los niveles de educación. Nótese que nos referimos al grupo de autistas como de alto funcionamiento, ya que las capacidades cognitivas y verbales de los participantes estaban por encima del rango típico (es decir, un coeficiente intelectual superior a 80). El reclutamiento de los participantes autistas se basó en el diagnóstico de un clínico independiente, ya sea como Síndrome de Asperger (N = 21) o como Trastorno del Espectro de Autismo (N = 5). Los participantes también fueron examinados en el módulo 4 del Programa de Observación Diagnóstica del Autismo (ADOS) (Lord et al., 2000) por un investigador capacitado: 10 participantes cumplían la clasificación ADOS para el autismo, 10 para el espectro de autismo y 6 no cumplían ninguna clasificación, pero los 6 participantes tenían un diagnóstico claro de un clínico independiente.

Tabla 1. Comparación de grupos típicos y autistas.


El confederado era un actor profesional (edad de actuación: 23-29 años) contratado durante toda la duración del estudio para asegurar una actuación consistente entre los ensayos y los participantes. No conocía los objetivos e hipótesis del estudio, y los participantes creían que era un estudiante que ayudaba en el estudio. Todos los participantes y el confederado dieron su consentimiento informado por escrito y fueron compensados por su participación en el estudio. El estudio recibió la aprobación ética del Comité de Ética de la Investigación local.

Tarea y estímulos

Los participantes completaron una tarea de preguntas y respuestas con el confederado. Creamos un conjunto de preguntas para cada condición experimental (video, videoCall y real). Cada conjunto comprendía 10 preguntas sobre preferencias personales en situaciones diarias neutras o prosociales (por ejemplo: Vas a ir al cine esta noche. ¿Prefieres: opción A, ver una película de fantasía, u opción B, ver una película de comedia?). Los tres conjuntos fueron emparejados para el número de preguntas que describen situaciones neutrales o prosociales. Ver Materiales Suplementarios (S2) para la lista completa de preguntas usadas en el Estudio del Autismo.

Para cada prueba, un solo tono indicaba el comienzo de la fase de preguntas. El confederado leía una pregunta de una tarjeta pero miraba brevemente a la cara de los participantes (cámara web en las condiciones de Video y Videollamada) cuando decía "Opción A" y "Opción B" para captar la atención de los participantes. Después de leer la pregunta, el confederado miró fijamente al participante/cámara web y sostuvo la tarjeta, que tenía las dos opciones escritas en el lado visible para los participantes. Así comenzó la fase de respuesta, en la que se pidió a los participantes que indicaran en una escala del 1 al 8 cuánto preferían esa opción a la otra (1 = preferir fuertemente A; 8 = preferir fuertemente B), y que añadieran más explicaciones sobre por qué preferían esa opción. Los participantes expresaron sus opciones y explicaciones hasta que escucharon tres tonos consecutivos que indicaban el final de la fase de respuesta. Durante la fase de Respuesta, el confederado miró fijamente a la cara de los participantes (cámara web en las condiciones de Video y VideoCall) y mostró una sonrisa cortés. La fase de preguntas duró unos 22 s, y la de respuestas 18 s, por lo que cada ensayo tuvo una duración de unos 40 s. Hubo un breve período de descanso de 5 s entre los ensayos. Véase la figura 1(b) para la cronología de un ensayo de muestra.

Procedimiento experimental

Los participantes completaron la tarea en tres condiciones experimentales: video, videoCall y real (ver Figura 1(a)). En la condición Video (V), los participantes observaron videos pregrabados del confederado mientras estaban solos en la sala de pruebas. Los participantes sabían que el confederado no podía verlos y que no había posibilidades de mostrar la verdadera dirección de la mirada, lo que daba lugar a una interacción poco válida desde el punto de vista ecológico en la que la mirada sólo tiene una función de percepción. En el caso de la condición de videollamada (C), los participantes estaban solos en la sala e interactuaban con el confederado mediante un software de videollamada de libre acceso (Zoom). Los participantes sabían que el confederado podía observarlos, pero no había posibilidades de mostrar la verdadera dirección de la mirada (la posición de la cámara de vídeo significa que hay un desajuste entre la verdadera dirección de la mirada y la dirección percibida de la mirada). Esto dio lugar a una interacción moderada y ecológicamente válida, en la que la mirada tiene funciones de percepción y señalización (limitadas). En la condición Real (R), los participantes y el confederado se encontraban en la misma habitación, sentados al otro lado de una mesa y enfrentados entre sí. Los participantes sabían que el confederado podía observarlos y que había posibilidades de mostrar la verdadera dirección de la mirada, lo que daba lugar a una interacción de alta validez ecológica en la que la mirada tiene funciones de percepción y de señalización (plenas). En todas las condiciones, el confederado llevaba puesto un rastreador ocular y aparecía frente a un fondo plano neutral.

Cada condición experimental se asoció con el mismo conjunto de preguntas para todos los participantes (Conjunto 1 - Vídeo; Conjunto 2 - Videollamada; Conjunto 3 - Real). En el Estudio Piloto, contrarrestamos el orden de las condiciones experimentales. Dado que no hubo efecto de orden, en el Estudio sobre el Autismo, sólo usamos dos condiciones de contrapeso (C-V-R y R-V-C) que dieron a los participantes un "descanso" entre las dos interacciones en vivo (menos abrumador para los participantes autistas). La duración total del estudio fue de alrededor de 45 minutos.

Al final del estudio, todos los participantes completaron un cuestionario posterior a la prueba en el que indicaron en una escala de 0 (en desacuerdo) a 8 (de acuerdo) cuán natural y recíproca era la interacción con el confederado en cada condición. Los participantes también indicaron qué interacción les gustaba más y menos, y cuál pensaban que era el propósito del experimento (las respuestas de 11 participantes típicos y 12 autistas se acercaban al propósito del estudio, por ejemplo, "medir los movimientos oculares al ver un vídeo o interactuar con una persona real", pero ninguno de ellos adivinó el significado de nuestra manipulación o nuestras predicciones específicas). Véase el material complementario (S3) para el cuestionario completo. Después, el experimentador informó a los participantes sobre el propósito real del estudio.

Adquisición y procesamiento de datos

Los participantes se sentaron a un lado de la mesa con un oclusor de cartón. El oclusor enmascaraba todo, excepto una ventana cuadrada de 14″ frente al participante (véase la figura 1). Durante las condiciones de la videoconferencia y la videollamada, se colocó un monitor 14″ en la ventana. Durante la condición Real, el confederado se sentó al otro lado de la mesa y su cara y la mitad superior del cuerpo era visible para los participantes a través de la ventana. Esta disposición aseguró que el confederado tuviera un aspecto similar en las tres condiciones (véase la figura 1 a)).

Se utilizaron dos rastreadores oculares portátiles (Pupil Core monocular, Pupil Labs, Alemania) para registrar los movimientos oculares de los participantes y del confederado. Los datos de seguimiento ocular del confederado se grabaron sólo para las condiciones de VideoCall y Real, pero estas grabaciones tenían una calidad de señal pobre y no se utilizaron para los análisis. El sistema Pupil Core utiliza una cámara "mundial" montada en la cabeza para grabar el entorno, y una cámara "pupilar" montada en la cabeza para seguir los movimientos de la pupila derecha a una frecuencia de 120 Hz (con una muestra reducida a 30 Hz para que coincida con la frecuencia de fotogramas de la cámara "mundial"). En las condiciones de vídeo y videollamada, los participantes se sentaron a unos 60 cm del monitor y pasaron por una rutina de calibración basada en una pantalla de 9 puntos al comienzo de cada condición (1-2 min). En la condición Real, los participantes se sentaron a aproximadamente 100 cm del confederado y pasaron por una rutina de calibración manual de 6 puntos al comienzo de esta condición (1-2 min). Después de la adquisición de datos, los vídeos de la cámara "mundial" de los participantes se procesaron posteriormente con OpenFace (Baltrusaitis et al., 2016) para detectar las coordenadas de los puntos de referencia faciales en la cara del confederado. Estos puntos de referencia faciales se utilizaron para crear dos regiones de interés (ROI) que correspondían a las mitades superior (región de los ojos) e inferior (región de la boca) de la cara, definidas como las mitades superior e inferior de una elipse que se ajustó para rastrear la ubicación y la orientación de la cara del confederado durante la tarea.

Para rastrear el movimiento facial, se dispuso una cámara web para grabar datos de la cara del participante (Logitech; velocidad de grabación de 20 Hz). Las grabaciones se procesaron mediante el algoritmo OpenFace, que utiliza el Sistema de Codificación de Acción Facial (FACS; Ekman & Friesen, 1976) para taxonizar los movimientos de los músculos faciales y deconstruir las pantallas faciales en unidades de acción específicas (UA). OpenFace puede reconocer un subconjunto de 18 unidades de acción facial y proporciona información sobre la presencia o ausencia de cada una de estas unidades de acción facial para cada fotograma de la grabación de vídeo.

Para controlar los efectos de movimiento facial relacionados con la producción de discurso, se utilizaron dos micrófonos de solapa para grabar el discurso de los participantes y del confederado. Los micrófonos también nos permitieron implementar un sistema disparador de audio para detectar con precisión la toma de turnos. Las grabaciones de audio fueron procesadas con un programa personalizado que detectaba quién hablaba con el tiempo. Nótese que no hubo diferencias generales en la cantidad de discurso de los participantes en las distintas condiciones (véase el Material Complementario S4).

Realizamos análisis agregados y de tiempo de curso de la mirada y el movimiento facial (véase la sección "Resultados" para más detalles sobre estos análisis). Véase la figura 2 para un diagrama con una visión general del proceso de adquisición, procesamiento y análisis de datos.



Figura 2



Resultados