Principal Tecnología ¿Lenguaje corporal deficiente durante una presentación? Esta aplicación te ayudará

¿Lenguaje corporal deficiente durante una presentación? Esta aplicación te ayudará

Tu Horóscopo Para Mañana

Me paré rígidamente en el escenario en una conferencia de escritura hace bastantes años. Con más de 800 personas presentes y mi propia comprensión de cómo hablar a un grupo grande un poco vaga, hice clic en algunas diapositivas e hice algunos comentarios que probablemente no sonaron demasiado profundos.

Después de mi charla, recogí algunas tarjetas de comentarios. (Como dije, esto fue antes de Twitter). Un tema que parecía surgir con demasiada frecuencia: que no me movía lo suficiente.

No era exactamente Steve Jobs en su mejor momento en ese entonces, pero tal vez una nueva aplicación, que debutó en una conferencia de tecnología durante el fin de semana, me habría ayudado.

Vocalytics utiliza el aprendizaje automático para analizar cualquier video existente . Puede decir cuándo haces una 'pose de poder' o un gesto con un énfasis agradable. Si permaneces inmóvil todo el tiempo, lo sabrá. La aplicación puede leer los gestos de las manos y la postura corporal por ahora, pero en el futuro, el equipo de desarrollo dice que podría expandirse para leer el movimiento de los ojos y las expresiones faciales.

Este tipo de aprendizaje automático no es nuevo. Microsoft ha ofrecido bibliotecas con algoritmos de aprendizaje automático que analizan los movimientos corporales durante varios años, y el equipo de Vocalytics usa parte de este código. Lo nuevo es la idea de analizar el lenguaje corporal de una manera que sea útil para alguien que quizás no sepa qué hacer. Como te dirá cualquier experto en inteligencia emocional, las personas ven tus expresiones, gestos y movimientos casi tanto como escuchan lo que dices.

cuantos años tiene eliza roberts

No puedes mantener la atención de una multitud si estás inactivo. En otra charla reciente, una que no fue exactamente a las mil maravillas, decidí moverme mucho más frente a un grupo de aproximadamente 50 personas. Traté de hacer gestos y mostrar una demostración en una computadora varias veces, para romper el tedio de estar parado allí y hablar. (A decir verdad, soy mejor escritor que orador).

Dentro de poco, veremos más y más aplicaciones impulsadas por IA que pueden analizar todo, desde nuestras inflexiones de voz hasta nuestro lenguaje corporal durante una reunión. En nuestros coches, un bot sabrá cómo conducimos y, una vez que lleguemos a casa, nos hará sugerencias sobre cómo mejorar. Incluso usaremos IA para leer nuestros artículos y hacer correcciones que mejoren la legibilidad y la comprensión.

Y estos motores de IA cometerán errores. Por lo que entiendo acerca de entrenar a las personas para hablar en público, no es una simple cuestión de mover un poco las manos. Es probable que un bot no sepa qué gestos proporcionan el mayor impacto para una audiencia determinada durante un tiempo. Hay tantas variables, como el tema, el nivel de experiencia de la multitud e incluso factores como la hora del día. (Mi charla reciente con estudiantes universitarios ocurrió temprano en la mañana. Se podría decir que estaba condenada al fracaso desde el principio. Mi charla en la conferencia de escritura fue justo después del almuerzo. Todos deberían haber estado al tanto).

Por supuesto, incluso si los robots de IA no saben cómo darnos un consejo perfecto, cada consejo ayuda un poco. Me gusta lo que está haciendo Vocalytics y cómo funciona.

Ojalá hubiera estado disponible hace mucho tiempo.