{"id":15511,"date":"2015-08-25T19:00:45","date_gmt":"2015-08-25T22:00:45","guid":{"rendered":"https:\/\/www.psafe.com\/blog\/?p=15511"},"modified":"2021-11-26T14:35:31","modified_gmt":"2021-11-26T17:35:31","slug":"como-apps-reconhecem-rosto-gestos-e-codigos-de-barra","status":"publish","type":"post","link":"https:\/\/www.psafe.com\/blog\/como-apps-reconhecem-rosto-gestos-e-codigos-de-barra\/","title":{"rendered":"Como apps reconhecem rosto, gestos e c\u00f3digos de barra"},"content":{"rendered":"\n<p class=\"wp-block-paragraph\">O Google apresentou detalhes da sua nova API para reconhecimento facial. <\/p>\n\n\n\n<p class=\"wp-block-paragraph\">O recurso est\u00e1 dispon\u00edvel para desenvolvedores que queiram construir aplicativos capazes de dar respostas ao usu\u00e1rio por reconhecimento de gestos e express\u00f5es do seu rosto. Face API \u00e9 a \u00faltima atualiza\u00e7\u00e3o do Google Play Services (7.8) e permite detectar por detalhes faciais ou gestos do rosto quem est\u00e1 \u00e0 frente do smartphone. <\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Assim, \u00e9 poss\u00edvel desenvolver apps que possam responder a sorrisos, piscar de olhos ou express\u00f5es faciais para desbloquear, bloquear ou mesmo acionar determinados servi\u00e7os\/respostas, como abrir a c\u00e2mera ou determinado aplicativo.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Com isso, as possibilidades de intera\u00e7\u00e3o entre homem e m\u00e1quina aumentam e est\u00e1 dada a largada para a cria\u00e7\u00e3o de servi\u00e7os automatizados.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"800\" height=\"786\" src=\"https:\/\/www.psafe.com\/blog\/wp-content\/uploads\/2015\/08\/12-1.jpg\" alt=\"Reconhecimento facial\" class=\"wp-image-60295\" srcset=\"https:\/\/www.psafe.com\/blog\/wp-content\/uploads\/2015\/08\/12-1.jpg 800w, https:\/\/www.psafe.com\/blog\/wp-content\/uploads\/2015\/08\/12-1-300x295.jpg 300w, https:\/\/www.psafe.com\/blog\/wp-content\/uploads\/2015\/08\/12-1-768x755.jpg 768w\" sizes=\"auto, (max-width: 800px) 100vw, 800px\" \/><\/figure>\n\n\n\n<p class=\"wp-block-paragraph\">Em substitui\u00e7\u00e3o ao antigo Android FaceDetector, <a href=\"https:\/\/developers.google.com\/vision\/\">Face Detection API<\/a>. Ela n\u00e3o reconhece o rosto do usu\u00e1rio, apenas \u00e9 capaz de detectar se \u00e9 ou n\u00e3o o rosto da pessoa com permiss\u00f5es de uso que est\u00e1 com o celular em m\u00e3os. A nova API detecta o rosto mesmo que esteja em inclina\u00e7\u00f5es diferentes da usual no smartphone.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">O recurso n\u00e3o chega a ser uma novidade, mas a melhora da API, sim, que agora conta com poder de detec\u00e7\u00e3o mesmo dos rostos quando em diferentes inclina\u00e7\u00f5es. <\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Ela reconhece o lugar da boca, olhos, bochechas, orelhas e nariz e \u00e9 capaz de responder se a pessoa da foto, v\u00eddeo ou streaming est\u00e1 ou n\u00e3o sorrindo, de olhos abertos ou fechados etc. E a partir da\u00ed, os apps podem ser capazes de detectar gestos, ampliando as possibilidades de uso da tecnologia.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">As portas que se abrem s\u00e3o muitas, como comandar a c\u00e2mera para que tire foto quando todos estejam sorrindo ou a cria\u00e7\u00e3o de um emoji de beijo quando o usu\u00e1rio mandar um beijo para a c\u00e2mera do smartphone. <\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Desta forma o Google pretende fazer do reconhecimento facial, um leitor de sentimentos. Por\u00e9m, se tomamos como exemplo o v\u00eddeo demonstra\u00e7\u00e3o, as express\u00f5es ainda parecem for\u00e7adas demais para poderem ser reconhecidas com naturalidade.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Outro recurso melhorado \u00e9 a detec\u00e7\u00e3o de c\u00f3digo de barras: <a href=\"https:\/\/developers.google.com\/vision\/barcodes-overview\">Barcode API<\/a>. Mais uma vez, os smartphones j\u00e1 faziam isso, mas de forma limitada. A atualiza\u00e7\u00e3o da API permite a identifica\u00e7\u00e3o dos c\u00f3digos independentemente da posi\u00e7\u00e3o em que estejam, em tempo real e mais de um c\u00f3digo por vez.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Emotion Engine: tradu\u00e7\u00e3o de express\u00f5es faciais em emo\u00e7\u00f5es<\/h2>\n\n\n\n<p class=\"wp-block-paragraph\">Na mesma linha da \u00faltima atualiza\u00e7\u00e3o do Face Detector do Google, encontramos um servi\u00e7o apresentado no TEDWomen 2015: Emotion Engine, de autoria da eg\u00edpcia Rana el Kaliouby, que pretende trazer \u00e0 tona nossas emo\u00e7\u00f5es para uso nos dispositivos eletr\u00f4nicos.<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\"><div class=\"wp-block-embed__wrapper\">\n<iframe loading=\"lazy\" title=\"Rana el Kaliouby: This app knows how you feel \u2014 from the look on your face\" width=\"474\" height=\"267\" src=\"https:\/\/www.youtube.com\/embed\/o3VwYIazybI?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\n<\/div><\/figure>\n\n\n\n<p class=\"wp-block-paragraph\">Considerando que hoje em dia passamos mais tempo do nosso dia com nossos smartphones ou PCs, como fazer para que os dispositivos pudessem interagir e saber mais como n\u00f3s nos sentimos? A ideia era permitir respostas das m\u00e1quinas de acordo com nossas express\u00f5es.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Tudo come\u00e7ou por inquieta\u00e7\u00e3o de Rana que via os aparatos eletr\u00f4nicos com alta intelig\u00eancia cognitiva, mas nenhuma intelig\u00eancia emocional que pudesse traduzir com fidelidade o que se passava com a pessoa por tr\u00e1s da m\u00e1quina.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">O passo seguinte seria fazer com que as m\u00e1quinas fossem capazes de dar respostas a estes sentimentos detectados: alegria, surpresa, medo, empatia, curiosidade etc. E os caminhos j\u00e1 estavam prontos, na ci\u00eancia da emo\u00e7\u00e3o, as unidades de a\u00e7\u00e3o s\u00e3o conhecidas e mapeadas a partir de cada movimento muscular facial. Por exemplo, a \u201cunidade de a\u00e7\u00e3o 12\u201d consiste no levantar dos cantos do l\u00e1bio, principal componente do sorriso (voc\u00ea pode parar e testar agora).<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">S\u00e3o aproximadamente 45 unidades de a\u00e7\u00e3o que se combinam para exprimir centenas de sentimentos e emo\u00e7\u00f5es. Como s\u00e3o combinadas e \u00e0s vezes de movimentos r\u00e1pidos demais, \u00e9 dif\u00edcil ensinar um computador a reconhec\u00ea-las. Como permitir a diferencia\u00e7\u00e3o entre um sorriso de alegria e um sorriso sarc\u00e1stico? <\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Por meio de exemplos. Assim, com milhares de dezenas de exemplos do que seria um sorriso de alegria, misturando pessoas de diferentes etnias, idades e sexo sorrindo, \u00e9 poss\u00edvel ensinar uma m\u00e1quina a reconhec\u00ea-lo com precis\u00e3o.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Desta maneira, uma ideia dentro do MIT h\u00e1 cinco anos se tornou uma empresa, com um banco de dados de milh\u00f5es de express\u00f5es de pessoas de 75 pa\u00edses diferentes. Os resultados do estudo s\u00e3o muito legais e mostram tamb\u00e9m um pouco da diferen\u00e7a expressiva entre homens e mulheres.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Mais que respostas, o software pode ser \u00fatil para diversas outras situa\u00e7\u00f5es. Estamos nos expressando e sentindo emo\u00e7\u00f5es quando escrevemos um e-mail, acompanhamos a timeline do Facebook, quando compramos algo online ou preenchemos fichas e cadastros.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Os usos s\u00e3o muitos e est\u00e3o a\u00ed para testes. Por exemplo, acelerar uma li\u00e7\u00e3o educacional, caso o estudante esteja aborrecido, ou explicar melhor em caso de reconhecimento de d\u00favida; auxiliar uma pessoa autista a decifrar emo\u00e7\u00f5es; os carros poderiam descobrir se estamos cansados demais para dirigir; ou uma geladeira poderia n\u00e3o abrir caso reconhecesse ansiedade que poderia desencadear uma comilan\u00e7a desenfreada.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Vai chegar o dia em que todos os produtos vir\u00e3o com chips emocionais. E aquela velha m\u00e1xima de que a tecnologia nos afasta dos nossos sentimentos ser\u00e1 coisa do passado.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>As possibilidades de intera\u00e7\u00e3o entre homem e m\u00e1quina aumentam com o avan\u00e7o do reconhecimento facial.<\/p>\n","protected":false},"author":114,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_crdt_document":"","ngg_post_thumbnail":0,"footnotes":""},"categories":[6],"tags":[1435,146,106,220,1802,6659,12095,66],"class_list":["post-15511","post","type-post","status-publish","format-standard","hentry","category-mercado","tag-api","tag-facebook","tag-google","tag-google-play","tag-mit","tag-noticia","tag-ted-talks","tag-telefone-celular"],"_links":{"self":[{"href":"https:\/\/www.psafe.com\/blog\/wp-json\/wp\/v2\/posts\/15511","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.psafe.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.psafe.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.psafe.com\/blog\/wp-json\/wp\/v2\/users\/114"}],"replies":[{"embeddable":true,"href":"https:\/\/www.psafe.com\/blog\/wp-json\/wp\/v2\/comments?post=15511"}],"version-history":[{"count":0,"href":"https:\/\/www.psafe.com\/blog\/wp-json\/wp\/v2\/posts\/15511\/revisions"}],"wp:attachment":[{"href":"https:\/\/www.psafe.com\/blog\/wp-json\/wp\/v2\/media?parent=15511"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.psafe.com\/blog\/wp-json\/wp\/v2\/categories?post=15511"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.psafe.com\/blog\/wp-json\/wp\/v2\/tags?post=15511"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}