<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet title="XSL_formatting" type="text/xsl" href="https://www.prensalibre.com/wp-content/themes/ux_prensalibre/assets/feed-styles/header.xsl"?>    <rss version="2.0"
         xmlns:content="http://purl.org/rss/1.0/modules/content/"
         xmlns:wfw="http://wellformedweb.org/CommentAPI/"
         xmlns:dc="http://purl.org/dc/elements/1.1/"
         xmlns:atom="http://www.w3.org/2005/Atom"
         xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
         xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
         xmlns:media="http://search.yahoo.com/mrss/"
            >

        <channel>
            <title>Las cámaras que pueden saber si estás feliz o si eres una amenaza para alguien</title>
            <atom:link href="https://www.prensalibre.com/vida/bbc-news-mundo-vida/las-camaras-que-pueden-saber-si-estas-feliz-o-si-eres-una-amenaza-para-alguien/feed/" rel="self" type="application/rss+xml"/>
            <link></link>
            <description>..</description>
            <lastBuildDate>Sat, 25 Apr 2026 00:07:39 -0600</lastBuildDate>
            <language>es-GT</language>
            <sy:updatePeriod>hourly</sy:updatePeriod>
            <sy:updateFrequency>1</sy:updateFrequency>
            <generator>https://wordpress.org/?v=6.8.5</generator>

<image>
	<url>https://www.prensalibre.com/wp-content/uploads/2019/01/cropped-PLico.png?quality=52&#038;w=32</url>
	<title>Las cámaras que pueden saber si estás feliz o si eres una amenaza para alguien</title>
	<link></link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">151997395</site>                    <item>
                        <title>Las cámaras que pueden saber si estás feliz o si eres una amenaza para alguien</title>
                        <link>https://www.prensalibre.com/vida/bbc-news-mundo-vida/las-camaras-que-pueden-saber-si-estas-feliz-o-si-eres-una-amenaza-para-alguien/</link>
                                                <pubDate>Wed, 18 Jul 2018 02:09:28 +0000</pubDate>
                        <dc:creator><![CDATA[ <div class="editorial-container__name" style="font-weight: 500;font-family: &quot;Acto-Small-Medium&quot;, Roboto !important;font-size: 14px !important;line-height: 18px !important;color: #00b9f2 !important;" >
       						BBC News Mundo</div>

						<div class="note-normal-container__author-variant-two special-style-normal-note-author">
							<h3 class="special-pill-note-container-title">ESCRITO POR:</h3>
								<div class="columnista-individual-container reset-margin w-100 col-12">
									<img alt='BBC News Mundo' src='https://secure.gravatar.com/avatar/?s=150&#038;d=mm&#038;r=r' srcset='https://secure.gravatar.com/avatar/?s=300&#038;d=mm&#038;r=r 2x' class='avatar avatar-150 photo avatar-default columnista-individual-container__photo special-img-author-note rounded-circle' height='150' width='150' decoding='async'/>									<div class="columnista-individual-container__details">
										<h2 class="columnista-individual-container__author font-size-author-note special-border-none">BBC News Mundo</h2>
										<h3 class="columnista-individual-container__description">
																					</h3>
									</div>
								</div>
						</div>
						<div class="editorial-container__date" style="margin: 8px 0;font-family: &quot;Acto-Small-Light&quot;, Roboto !important;font-weight: 300 !important;font-size: 20px !important;line-height: 18px !important;color: #474747 !important;"><span class="posted-on"><time class="sart-time entry-date published updated" datetime="2018-07-17T20:09:28-06:00">17 de julio de 2018</time></span></div>]]></dc:creator>
                                                <category><![CDATA[BBC News Mundo]]></category>
                        <guid isPermaLink="false">https://www.prensalibre.com/uncategorized/las-camaras-que-pueden-saber-si-estas-feliz-o-si-eres-una-amenaza-para-alguien/</guid>
                                                    <description><![CDATA[La tecnología de reconocimiento facial es cada vez más sofisticada.]]></description>
                                                                                        <content:encoded><![CDATA[<p>Aumenta el número de empresas que dicen tener sistemas capaces de leer emociones y detectar comportamientos sospechosos, pero ¿qué implica eso para la privacidad y las libertades civiles de las personas?</p>
<p>Aunque lleva décadas funcionando, en los últimos años el progreso ha sido enorme gracias a los avances de la visión computacional y la inteligencia artificial, según los expertos en tecnología.</p>
<p>Ahora, por ejemplo, se utiliza para identificar a personas en las fronteras, desbloquear teléfonos, detectar criminales o validar transacciones bancarias.</p>
<p>Pero algunas compañías tecnológicas dicen que también pueden evaluar nuestro estado emocional.</p>
<h2>Microexpresiones</h2>
<p>Desde la década de 1970, los psicólogos dicen que pueden detectar emociones ocultas estudiando las microexpresiones (movimientos muy sutiles y gestos nerviosos) en los rostros de personas en fotografías y videos.</p>
<h4><u><em><strong><a href="https://www.bbc.com/mundo/noticias/2015/09/150909_vert_fut_mejor_manera_descubrir_mentiroso_yv" target="_blank" rel="noopener">La mejor (y la peor) manera de identificar a un mentiroso</a><br />
<a href="https://www.bbc.com/mundo/vert-cap-37523955" target="_blank" rel="noopener">Las mañas y gestos nerviosos que pueden arruinar tu entrevista de trabajo</a></strong></em></u></h4>
<p>Los algoritmos y cámaras de alta definición pueden hacerlo con precisión y rapidez.</p>
<p>&#8220;Ya se están usando para fines comerciales&#8221;, le explica a la BBC Oliver Philippou, experto en videovigilancia que trabaja en la compañía tecnológica británica IHS Markit.<br />
<br />
&#8220;Un supermercado podría usarlos en sus pasillos. No para identificar personas, sino para analizar quién entra en términos de edad y género, y también su estado de ánimo. Puede ser útil para el marketing dirigido y para la publicidad por emplazamiento&#8221;.</p>
<p>La agencia de investigación de mercados Kantar Millward Brown utiliza la tecnología desarrollada por la firma estadounidense Affectiva para analizar cómo reaccionan los consumidores a comerciales de televisión.</p>
<p>Affectiva graba videos de rostros de personas con su permiso y luego &#8220;codifica&#8221; sus expresiones, fotograma a fotograma, para evaluar su estado de humor.</p>
<p>&#8220;Entrevistamos a gente, pero obtenemos muchos más matices observando también sus expresiones. Puedes ver exactamente qué parte de un aviso publicitario funciona bien y qué respuesta emocional desencadena&#8221;, le dice a la BBC Graham Page, director de oferta e innovación en Kantar Millward Brown.<br />
</p>
<h2>&#8220;Comportamientos sospechosos&#8221;</h2>
<p>Más polémicas son las empresas que ofrecen &#8220;detección de emociones&#8221; por motivos de seguridad.</p>
<p>La firma británica WeSee, por ejemplo, dice que su tecnología de inteligencia artificial puede detectar comportamientos sospechosos leyendo señales faciales imperceptibles para el ojo no entrenado.</p>
<p>Emociones como la duda o la rabia pueden ocultarse y contrastar con el lenguaje que usa la persona.</p>
<p>WeSee asegura que ha estado trabajando con una organización &#8220;de alto perfil&#8221; en la aplicación de la ley para analizar a personas que son entrevistadas.</p>
<p>&#8220;Usando solamente imágenes de video de baja calidad, nuestra tecnología tiene la capacidad de determinar el estado de ánimo o la intención de un individuo por sus expresiones faciales, postura, gestos y movimiento&#8221;, le cuenta a la BBC su director ejecutivo, David Fulton.</p>
<p>&#8220;En el futuro, las cámaras de video en las estaciones de metro podría usar nuestra tecnología para detectar comportamientos sospechosos y alertar a las autoridades de una potencial amenaza terrorista&#8221;.<br />
<br />
&#8220;Lo mismo podría hacerse con multitudes de personas en eventos como partidos de fútbol y mítines políticos&#8221;.</p>
<p>Pero Philippou es escéptico en cuanto a la precisión de la detección de emociones.</p>
<h2>La controversia</h2>
<p>&#8220;En lo que respecta a la identificación facial, todavía hay márgenes de error. Las compañías más avanzadas dicen que pueden identificar gente con una precisión de entre el 90 y el 92%&#8221;.</p>
<p>&#8220;A la hora de identificar emociones, el margen de error aumenta significativamente&#8221;.</p>
<p>Eso preocupa a activistas por la privacidad y porque temen que esta tecnología pueda hacer juicios equivocados o sesgados.<br />
<br />
&#8220;Imagino que hay algunos casos en los que resulta muy útil, pero las implicaciones de privacidad derivadas de la observación de emociones, el reconocimiento facial y la elaboración de perfiles no tienen precedentes&#8221;, dice Frederike Kaltheuner, del grupo Privacy International.</p>
<p>El reconocimiento facial ya es de por sí bastante controvertido.</p>
<p>La organización por los derechos humanos Liberty dice que esta tecnología ha generado un gran cantidad de &#8220;falsos positivos&#8221; en eventos como la final de la Champions League en Cardiff, Reino Unido, el año pasado.</p>
<p>Un residente de esa localidad, Ed Bridges, tomó acciones legales contra las autoridades argumentando que el sistema violó la privacidad de las personas.</p>
<p>Pero cada vez se confía más en ella, dice Patrick Grother, director de pruebas biométricas en el Instituto Nacional de Estándares y Tecnología, una agencia del gobierno estadounidense que investiga cuestiones relacionadas con reconocimiento facial.<br />
<br />
Él atribuye el reciente progreso tecnológico al desarrollo de &#8220;redes neuronales convolucionales&#8221;, un sistema avanzado de aprendizaje automático que permite una precisión mucho mayor.</p>
<p>&#8220;Esos algoritmos hacen que las computadoras puedan analizar imágenes a diferentes escalas y ángulos&#8221;, explica.</p>
<p>&#8220;Puedes identificar caras de forma mucho más precisa, incluso aunque estén parcialmente cubiertas por gafas de sol o cicatrices. La tasa de error se ha reducido hasta diez veces desde 2014, aunque ningún algoritmo es perfecto&#8221;.</p>
<p>Fulton, de WeSee, dice que su tecnología es simplemente una herramienta para ayudar a la gente a analizar videos de forma más inteligente.</p>
<p>&#8220;De momento, podemos detectar un comportamiento sospechoso pero no intencional para evitar que algo malo ocurra. Pero creo que vamos a lograrlo y ya estamos haciendo pruebas&#8221;.<br />
</p>
<div class="gsp_post_data" data-post_type="post" data-cat="bbc-news-mundo-vida,vida" data-modified="120" data-title="Las cámaras que pueden saber si estás feliz o si eres una amenaza para alguien" data-home="https://www.prensalibre.com"></div>]]></content:encoded>
                                                                                                                                                    <post-id xmlns="com-wordpress:feed-additions:1">456559</post-id>                    </item>
                            </channel>
    </rss>
    