ūü§ĖRob√īs de Jardinagem passam no Teste de Turing

A Carta do Especialista de hoje foi escrita por Intelig√™ncia Artificial. Ou n√£o? Como saber a diferen√ßa, em tempos que rob√īs de jardinagem est√£o passando pelo Teste de Turing e a IA est√° passando a ser a estrela principal dos cursos de computa√ß√£o de Harvard? E n√£o como mat√©ria e sim como na fun√ß√£o de professora! Se para voc√™ estes argumentos n√£o forem suficientes, chegamos a um momento que a linha entre nossas mem√≥rias reais e aquelas sonhadas por uma IA, est√° ficando borrada…Sim…Um perigo…E, como tudo est√° indo numa velocidade exponencial, conhe√ßa o novo avi√£o que pode viajar numa velocidade 5 vezes maior do que o som, reduzindo o tempo de viagem entre EUA e Australia, de 17 para 4 horas. E finalizo a Carta com uma an√°lise do lan√ßamento dos √≥culos de realidade virtual e mista da Apple, que talvez nos fa√ßa avan√ßar mais um passo na jornada de busca de um Metaverso ideal.

ūü§ĖRob√īs de Jardinagem passam no Teste de Turing

UC Berkeley’s AlphaGarden prunes some of its plants. UC BERKELEY

Na Carta do Especialista da semana passada (Clique aqui para ler), focada em IA, comentei a respeito do Teste de Turing, desenvolvido em 1950 por Alan Turing, que levantou a quest√£o “M√°quinas podem pensar?” propondo um teste baseado na compara√ß√£o entre a capacidade humana e a capacidade da m√°quina em responder perguntas.

Come√ßo a Carta de hoje aproveitando a este link e adaptando a pergunta para as “M√°quinas podem jardinar?”, atrav√©s da compara√ß√£o entre a habilidade humana e de uma m√°quina em cuidar de um jardim de policultura real.

A Universidade da Calif√≥rnia, Berkeley, tem uma longa hist√≥ria de pesquisa em jardins rob√≥ticos, que remonta ao in√≠cio dos anos 90, quando j√° cuidavam de um jardim inteiro com a ajuda de um rob√ī. Contudo, a verdadeira quest√£o hoje √©: o rob√ī pode cuidar de um jardim de forma t√£o eficaz quanto um humano? Vamos agora adentrar o campo da CI√äNCIA! ūüĎŹ

Diretamente de Berkeley, um avan√ßado rob√ī chamado AlphaGarden, com habilidades superiores √†s de um jardineiro profissional, est√° redefinindo os cuidados com as plantas. Esses rob√īs n√£o s√£o sofisticados; s√£o sistemas hidrop√īnicos automatizados que controlam a √°gua, os nutrientes e at√© mesmo a luz solar simulada. Eles fazem um trabalho incr√≠vel gerando evid√™ncias de que os jardineiros rob√≥ticos podem ser t√£o eficientes quanto os melhores jardineiros humanos e, em alguns aspectos, at√© super√°-los.

O AlphaGarden √© uma combina√ß√£o de um sistema de cultivo rob√≥tico em um p√≥rtico comercial e o AlphaGardenSim, um software desenvolvido pela UC Berkeley que instrui o rob√ī sobre como maximizar a sa√ļde e o crescimento das plantas. O sistema inclui uma c√Ęmera de alta resolu√ß√£o e sensores de umidade do solo para monitorar o crescimento das plantas. Tudo √© automatizado, desde o plantio de sementes at√© a irriga√ß√£o por gotejamento e a poda. O jardim em si √© complexo, sendo um jardim de policultura, onde diferentes plantas coexistem. Esse tipo de cultivo imita o crescimento natural das plantas e traz benef√≠cios como a resist√™ncia a pragas, a redu√ß√£o da necessidade de aduba√ß√£o e a melhoria da sa√ļde do solo. No entanto, a policultura requer mais trabalho manual do que a monocultura, que √© o m√©todo predominante na agricultura em larga escala.

Para avaliar o desempenho do AlphaGarden, os pesquisadores da UC Berkeley realizaram um experimento. Eles plantaram duas √°reas agr√≠colas lado a lado, utilizando as mesmas sementes. Ao longo de dois meses, o AlphaGarden cuidou de uma das √°reas em tempo integral, enquanto jardineiros profissionais cuidaram da outra √°rea. Em um segundo teste, o AlphaGarden teve permiss√£o para plantar as sementes em diferentes momentos, dando uma vantagem inicial √†s plantas de crescimento mais lento. Durante o experimento, um ser humano precisou ajudar o rob√ī ocasionalmente com a poda, seguindo as instru√ß√Ķes fornecidas pelo pr√≥prio rob√ī quando a ferramenta de poda n√£o conseguia realizar determinadas tarefas.

Os resultados desses testes mostraram que o rob√ī alcan√ßou resultados semelhantes ao jardineiro profissional em termos de diversidade e cobertura das plantas. Em outras palavras, as plantas cresceram t√£o bem com os cuidados do rob√ī quanto com os cuidados de um jardineiro humano experiente. A diferen√ßa significativa foi que o rob√ī conseguiu realizar a tarefa com um consumo de √°gua 44% menor, economizando centenas de litros em apenas dois meses.

O futuro desse campo ainda √© incerto, uma vez que o custo do hardware √© elevado, enquanto a m√£o de obra humana √© relativamente mais acess√≠vel. No entanto, para aqueles de n√≥s que n√£o s√£o especialistas em jardinagem, √© f√°cil imaginar a instala√ß√£o de c√Ęmeras e sensores em nossos jardins, seguido as orienta√ß√Ķes de um simulador sobre quando e onde regar e podar. Estou sempre disposto a ceder o trabalho para um rob√ī que sabe fazer melhor do que eu. ūüėÖ‚Äô E voc√™?

Fonte: https://spectrum.ieee.org/robot-gardener

ūüĖ•Professor de Harvard aproveita IA para ajudar a dar a aula de computa√ß√£o

A.I. will be used to teach coding in a Harvard University course with more than 40,000 online students. getty

O CS50, o curso de ciência da computação mais popular do mundo, oferecido pela Universidade de Harvard, está passando por uma transformação na era do ChatGPT. O professor David J. Malan, responsável pelo curso, planeja utilizar inteligência artificial para avaliar tarefas, ensinar programação e fornecer dicas personalizadas de aprendizagem.

O estilo de ensino en√©rgico e envolvente de Malan tem sido elogiado por transformar palestras mon√≥tonas e b√°sicas sobre os fundamentos do desenvolvimento web e programa√ß√£o de software em aulas divertidas, repletas de exerc√≠cios interativos. No entanto, com o crescente n√ļmero de alunos conectados de fusos hor√°rios diferentes e com diferentes n√≠veis de conhecimento e experi√™ncia, tornou-se desafiador oferecer suporte individualizado √†s perguntas espec√≠ficas dos alunos.

Para lidar com esse desafio em grande escala, a equipe do CS50 est√° desenvolvendo um sistema de intelig√™ncia artificial para avaliar o trabalho dos alunos e testando um assistente de ensino virtual para avaliar e fornecer feedback sobre a programa√ß√£o dos estudantes. O assistente virtual faz perguntas ret√≥ricas e oferece sugest√Ķes para auxiliar no aprendizado, em vez de simplesmente detectar erros e corrigir bugs de programa√ß√£o. A ideia √© que, a longo prazo, isso permita que os assistentes de ensino humanos tenham mais tempo para interagir presencialmente ou por meio de videochamadas.

Essa iniciativa ocorre em um momento em que os educadores est√£o preocupados com o fato de que tecnologias como o ChatGPT possam facilitar a trapa√ßa e a pl√°gio por parte dos alunos, sem serem detectados. Algumas escolas e universidades em todo o mundo j√° proibiram o uso desse tipo de ferramenta. Al√©m disso, o avan√ßo da intelig√™ncia artificial tamb√©m afetou as a√ß√Ķes de empresas de educa√ß√£o online, como a Chegg Inc., que recentemente registrou uma desacelera√ß√£o no crescimento de assinantes √† medida que as pessoas experimentam o chatbot gratuito desenvolvido pela OpenAI.

No entanto, Malan argumenta que o uso da intelig√™ncia artificial pelo CS50 pode destacar os benef√≠cios dessa tecnologia para a educa√ß√£o, especialmente na melhoria da qualidade e do acesso ao aprendizado online. Segundo estimativas da Grand View Research, esse setor tem previs√£o de crescimento para US$ 348 bilh√Ķes at√© 2030, quase triplicando em rela√ß√£o a 2022.

O CS50 come√ßou como uma √ļnica aula introdut√≥ria de computa√ß√£o e, ao longo do tempo, evoluiu para v√°rias disciplinas, alcan√ßando mais de 1,4 milh√£o de inscritos no YouTube e oferecendo produtos com a marca do curso, como bolas antiestresse e camisetas. Ao longo dos anos, mais de 4,7 milh√Ķes de pessoas se inscreveram no curso. Atualmente, ele est√° dispon√≠vel como parte da plataforma de aprendizagem digital edX, criada pela Harvard e pelo Instituto de Tecnologia de Massachusetts, que oferece cursos online de n√≠vel universit√°rio em diversas √°reas.

Alguns especialistas, no entanto, aconselham cautela no uso da intelig√™ncia artificial, uma vez que essa tecnologia ainda est√° em desenvolvimento e suscet√≠vel a erros. Nas √ļltimas semanas, CEOs das principais empresas de IA, incluindo a OpenAI e a DeepMind, da Alphabet, al√©m de outras lideran√ßas da √°rea de tecnologia, t√™m alertado sobre os riscos da IA sem controle.

Outros especialistas também alertaram sobre os riscos éticos do uso da IA na educação, especialmente no que diz respeito à coleta de dados para personalizar as aulas. Para garantir a privacidade dos alunos, as plataformas precisarão incorporar medidas de privacidade e garantir que os processos de coleta de dados sejam transparentes, afirmou Emma Taylor, analista da consultoria GlobalData, com sede em Londres.

Apesar das preocupa√ß√Ķes e desafios, o CS50 acredita no potencial capacitador da IA na educa√ß√£o. O curso, que come√ßou como uma aula introdut√≥ria de computa√ß√£o, evoluiu para se tornar um fen√īmeno global, com milh√Ķes de inscritos e uma presen√ßa marcante no ambiente digital. A ado√ß√£o da intelig√™ncia artificial no CS50 tem como objetivo melhorar a qualidade e o acesso ao aprendizado online, contribuindo para um setor que continua a crescer e se expandir.

Eu sempre defendi a tese de que humanos e máquinas fazem uma combinação perfeita. Neste caso, a combinação do estilo de ensino cativante de David J. Malan com o poder da inteligência artificial promete oferecer uma experiência de aprendizagem ainda mais personalizada e envolvente para os estudantes do CS50. Essa iniciativa certamente terá um impacto significativo no campo da educação online e abrirá novas possibilidades para o ensino de ciência da computação em larga escala.

Fonte: https://fortune.com/2023/06/03/ai-to-help-teach-harvard-university-online-computer-science-course/amp/

ūüėīMem√≥rias reais sendo sobrepostas por mem√≥rias sonhadas pela IA?

PHOTOGRAPH: TARA MOORE/GETTY IMAGES

Nos 2 primeiros temas explorados na Carta de hoje, est√° claro o quanto a IA est√° passando a fazer parte de nossas vidas. Mas…Olhe que perigo…Novas ferramentas de manipula√ß√£o de fotos do Google e da Adobe est√£o fazendo com que as linhas entre mem√≥rias reais e aquelas sonhadas pela IA se confundam.

Em fevereiro deste ano, a startup Runway, mais conhecida por cocriar o Stable Diffusion, a ferramenta de IA de texto para imagem que capturou imagina√ß√Ķes em 2022, lan√ßou uma ferramenta que poderia mudar todo o estilo de um v√≠deo existente com apenas um simples prompt e, no final de mar√ßo, organizou o que disse ser o primeiro festival de cinema de IA no teatro Alamo Drafthouse, em S√£o Francisco. Foram selecionados 10 curtas-metragens de cineastas iniciantes que eram, em sua maioria, demonstra√ß√Ķes de tecnologia. Narrativas bem constru√≠das ficaram em segundo plano. Algumas foram surreais e, em pelo menos um caso, intencionalmente macabras.

Mas o √ļltimo filme exibido provocou arrepios. Parecia que o cineasta havia deliberadamente entendido mal a tarefa, evitando o v√≠deo para imagens est√°ticas. Chamado de Inf√Ęncia Expandida, o “filme” de IA era uma apresenta√ß√£o de slides de fotos com um eco quase inaud√≠vel de narra√ß√£o.

O diretor Sam Lawton, um estudante de cinema de 21 anos de Nebraska, mais tarde me disse que usou o DALL-E da OpenAI para alterar as imagens. Ele montou uma s√©rie de fotos de sua inf√Ęncia, alimentou-as com a ferramenta de IA e deu v√°rios comandos para expandir as imagens: preencher as bordas com mais vacas, ou √°rvores; inserir no quadro pessoas que realmente n√£o estiveram l√°; para reimaginar como era a cozinha. Jogue outro filhote na banheira ‚Äď por que n√£o? Lawton mostrou as imagens geradas pela IA para seu pai, gravou suas rea√ß√Ķes confusas e inseriu o √°udio no filme.

“N√£o, essa n√£o √© a nossa casa. Uau, espere um minuto. Essa √© a nossa casa. Algo est√° errado. N√£o sei o que √© isso. Ser√° que eu simplesmente n√£o me lembro?” O pai de Lawton pode ser ouvido dizendo.

Onde terminam as mem√≥rias reais e come√ßa a IA generativa? √Č uma quest√£o para a era da IA, onde nossas fotos sagradas podem se fundir com mem√≥rias ‚Äúfake‚ÄĚ, constru√≠das a partir de novos pixels gerados inteiros pela intelig√™ncia artificial.

Nas √ļltimas semanas, os gigantes da tecnologia Google e Adobe, cujas ferramentas coletivamente atingem bilh√Ķes de dedos, lan√ßaram ferramentas de edi√ß√£o alimentadas por IA que mudam completamente o contexto das imagens, ultrapassando os limites da verdade, mem√≥ria e fotografia aprimorada.

O Google mergulhou os p√©s na √°gua com o lan√ßamento de Magic Eraser em 2021. Agora, a empresa est√° testando o Magic Editor, um recurso em telefones Android selecionados que reposiciona assuntos, remove foto bombardeiros e edita outros elementos indecorosos e, em seguida, usa IA generativa para preencher lacunas de pixel. A Adobe, indiscutivelmente a fabricante mais famosa de software de edi√ß√£o criativa, anunciou no in√≠cio desta semana que estava colocando seu mecanismo de IA generativo Firefly no Adobe Photoshop. O recurso de Preenchimento Gerativo editar√° fotos e inserir√° novo conte√ļdo por meio de um prompt baseado em texto. Digite “adicionar algumas nuvens” e l√° elas aparecem.

A Adobe est√° chamando-o de “copiloto” para fluxos de trabalho criativos, termo que outras empresas de tecnologia, como a Microsoft, tamb√©m est√£o usando para descrever aplicativos de IA generativos. Por ora, pelo menos, voc√™ ainda est√° no controle total, tendo a IA como assistente, assumindo a navega√ß√£o quando voc√™ precisa de uma pausa no banheiro. Mas talvez isto j√° seja um equ√≠voco,  a partir do instante que a IA passa a agir como um cart√≥grafo, redesenhando os mapas de sua exist√™ncia.

‚ÄúTorne suas mem√≥rias perfeitas‚ÄĚ √© talvez a frase mais assombrosa que j√° li, tuitou a presidente da Signal Foundation e ex-Googler Meredith Whittaker em fevereiro, em resposta ao an√ļncio do Google de que sua ferramenta Magic Eraser ficaria dispon√≠vel para uma gama maior de telefones. Em sua comercializa√ß√£o da ferramenta, o Google mostra uma imagem de uma jovem enfrentando um mar agitado. Mais perto da costa est√° uma fam√≠lia de quatro pessoas, presumivelmente n√£o a dela. Magic Eraser faz com que eles desapare√ßam.

Em nossa hist√≥ria, sempre pod√≠amos editar fotos. Seja por tesoura, navalha ou tinta, desde que a foto impressa passou a existir, n√≥s a editamos. Com a chegada do Photoshop em 1990, no computador pessoal, tudo mudou… “Jennifer in Paradise” foi a foto digital mais vista em todo o mundo: uma imagem da esposa do cocriador do Photoshop, John Knoll, sentada em uma praia em Bora Bora. Em demos, Knoll delineava sua esposa usando a agora famosa ferramenta de la√ßo e, em seguida, a clonava. Copiou, colou, encolheu e difundiu uma ilha ao longe. “Uma ilha duplicada!” Knoll disse em um v√≠deo postado no canal da Adobe no YouTube em 2010. Uma ilha que n√£o estava realmente l√°. Uma massa de terra fabricada.

O que √© diferente hoje ‚Äď o que a IA generativa est√° ultrapassando limites ‚Äď √© a velocidade com que essas edi√ß√Ķes podem ser feitas e quem pode faz√™-las. “As ferramentas de edi√ß√£o existem h√° muito tempo”, diz Shimrit Ben-Yair, chefe do Google Fotos. “E, obviamente, temos oferecido ferramentas de edi√ß√£o no Fotos h√° algum tempo. √Ä medida que essas plataformas aumentaram suas bases de usu√°rios, essas ferramentas se tornaram muito mais acess√≠veis e dispon√≠veis para as pessoas. E imagens editadas se tornam mais comuns.”

Uma demonstra√ß√£o inicial da ferramenta Magic Eraser do Google apresenta duas crian√ßas usando roupas de mergulho e pranchas de boogie, com dois adultos ao fundo distante. As crian√ßas e os adultos t√™m tons de pele diferentes, e a suposi√ß√£o um tanto desconfort√°vel nesta demo ‚Äď tamb√©m enfatizada pela dist√Ęncia entre eles ‚Äď √© que eles n√£o s√£o fam√≠lia. O Magic Eraser do Google delineou os adultos ao fundo, depois os desapareceu.

Em uma demonstra√ß√£o mais recente, o Magic Editor, que ser√° lan√ßado no final deste ano, apagou a al√ßa da bolsa do ombro de uma mulher enquanto ela posava em frente a uma cachoeira e, em seguida, preencheu as lacunas com mais material de jaqueta. Porque a al√ßa da bolsa em uma foto de caminhada era t√£o inc√īmoda, n√£o sei. Mas essas decis√Ķes est√©ticas s√£o prerrogativa do criador da foto, diz o Google.

O Generative Fill da Adobe √© muito mais generativo. Um c√£o de pelos longos caminha por uma estrada vazia. √Č isso, essa √© a foto. Mas este recurso alonga o caminho, transforma √°rvores est√©reis em flores da primavera. Uma caminhonete branca aparece, e se ela est√° dirigindo em dire√ß√£o ao c√£o ou longe dele muda a tens√£o da foto de uma maneira not√°vel. Mas, olha, agora tem po√ßa. Certamente essa √© uma foto feliz? A IA generativa √© at√© inteligente o suficiente para elaborar um reflexo do filhote nas po√ßas. Ele faz tudo isso em segundos, o que impressiona.

Mas depois do espanto vem “E agora?” Suponha que seja minha foto de caminhada, meu cachorro, minha fam√≠lia na praia. Como vou me lembrar desse dia se no futuro eles s√£o apenas aquarela no meu c√©rebro, e eu cada vez mais recorro ao meu rolo de fotos para tra√ßos mais v√≠vidos? Eu realmente n√£o carreguei uma bolsa durante a caminhada? A caminhonete chegou perigosamente perto do meu cachorro naquele dia? Eu s√≥ passei f√©rias em praias imaculadas e privadas?

Executivos do Google e da Adobe dizem que o poder das ferramentas deve ser considerado dentro do contexto da foto. Quem est√° levando, quem est√° compartilhando, para onde est√° sendo compartilhado. “Acho que, no contexto de um espa√ßo p√ļblico, h√° expectativas diferentes de uma foto ser compartilhada em um espa√ßo privado”, diz Ben-Yair. “Se algu√©m est√° compartilhando uma foto com voc√™ por meio do pr√≥prio Google Fotos ou de um aplicativo de mensagens que voc√™ usa, voc√™ confia nessa fonte. E voc√™ pode ver a edi√ß√£o como algo que melhora a foto, porque voc√™ confia nessa fonte.”

“Mas quanto mais camadas de abstra√ß√£o houver”, ela continua, “onde voc√™ n√£o sabe a fonte, ent√£o sim, voc√™ tem que pensar, qu√£o aut√™ntica √© essa foto?”

Da mesma forma, Andy Parsons, da Adobe, diz que h√° um “continuum de casos de uso” para fotos editadas por IA. Um artista (ou indiv√≠duo que se fantasia de artista) pode usar IA generativa para alterar uma foto que deve ser uma interpreta√ß√£o criativa, n√£o documenta√ß√£o. Por outro lado, “se √© muito importante saber que o que est√° sendo apresentado na foto √© um reflexo da realidade, como em uma organiza√ß√£o de not√≠cias, esperamos ver cada vez mais fot√≥grafos sendo obrigados a fornecer transpar√™ncia”, diz Parsons.

Parsons √© algo como o rei da proveni√™ncia na Adobe. Seu cargo atual √© diretor s√™nior da Content Authenticity Initiative, um grupo que a Adobe cocriou em 2019 para estabelecer diretrizes intersetoriais sobre origina√ß√£o de conte√ļdo e transpar√™ncia de m√≠dia. Foi o v√≠deo manipulado de Nancy Pelosi, diz Parsons, em que a presidente da C√Ęmara parecia estar a proferir as suas palavras, que “mais uma vez, mudou a hist√≥ria”. Mesmo que a edi√ß√£o n√£o tenha sido creditada √† IA, a pura manipula√ß√£o do v√≠deo de Pelosi fez a Adobe reconsiderar como suas poderosas ferramentas de edi√ß√£o poderiam ser usadas. Os primeiros parceiros da Adobe no CAI foram o Twitter e o The New York Times. A Coaliz√£o agora tem mais de mil membros em v√°rios setores.

Ent√£o, em 2021, a Adobe uniu for√ßas com a BBC, as fabricantes de chips Intel e ARM e a Microsoft para criar mais um cons√≥rcio para padr√Ķes em torno da “proveni√™ncia digital”, chamado ‚ÄúCoalition for Content Provenance and Authenticity‚ÄĚ, ou C2PA. Na recente confer√™ncia anual de software da Microsoft, a empresa disse que seu Bing Image Creator em breve usar√° m√©todos criptogr√°ficos padr√£o C2PA para assinar conte√ļdo gerado por IA. (Ben-Yair, do Google, tamb√©m diz que esta √© uma “√°rea ativa de trabalho para a empresa que explicaremos quando nos aproximarmos do lan√ßamento dela.”)

“Estamos todos focados na mesma ideia”, diz Parsons. “N√≥s meio que perdemos a corrida armamentista em detectar o que pode ser falso. O abismo foi ultrapassado. Ent√£o, a prote√ß√£o e contramedida que temos √© saber qual modelo foi usado para capturar ou criar uma imagem e tornar esses metadados confi√°veis.”

Em teoria, esses padr√Ķes criptogr√°ficos garantem que, se um fot√≥grafo profissional tirar uma foto para, digamos, a Reuters e essa foto for distribu√≠da pelos canais de not√≠cias internacionais da Reuters, tanto os editores que encomendam a foto quanto os consumidores que a visualizam teriam acesso a um hist√≥rico completo de dados de proced√™ncia. Eles saber√£o se as sombras foram perfuradas, se os carros da pol√≠cia foram removidos, se algu√©m foi cortado do quadro. Elementos de fotos que, de acordo com Parsons, voc√™ gostaria de ser criptograficamente prov√°veis e verific√°veis.

Claro, tudo isso se baseia na no√ß√£o de que n√≥s ‚Äď as pessoas que olhamos para fotos ‚Äď vamos querer, ou nos importar ou saber como verificar, a autenticidade de uma foto. Pressup√Ķe que somos capazes de distinguir entre social e cultura e not√≠cias, e que essas categorias s√£o claramente definidas.

Lembra-se da imagem ‚ÄúBalenciaga Pope‚ÄĚ? A imagem do Papa Francisco usando uma jaqueta estilosa foi postada pela primeira vez no subreddit r/Midjourney como uma esp√©cie de meme, espalhada entre os usu√°rios do Twitter e depois captada por ve√≠culos de not√≠cias que relatam a viralidade e as implica√ß√Ķes da imagem gerada pela IA. Arte, social, not√≠cias ‚Äď todos foram igualmente aben√ßoados pelo Papa. Agora sabemos que √© falso, mas a Balenciaga Pope viver√° para sempre em nossos c√©rebros.

Depois de ver o Magic Editor, tentei articular algo a Shimrit Ben-Yair sem atribuir um valor moral a ele, o que significa que prefaciei minha declara√ß√£o com: “Estou tentando n√£o atribuir um valor moral a isso”. √Č not√°vel, eu disse, quanto controle de nossas mem√≥rias futuras est√° nas m√£os de empresas gigantes de tecnologia agora simplesmente por causa das ferramentas e infraestrutura que existem para registrar grande parte de nossas vidas.

Ben-Yair fez uma pausa de cinco segundos antes de responder. “Sim, quero dizer… Acho que as pessoas confiam no Google com seus dados para proteger. E vejo isso como uma responsabilidade muito, muito grande para carregarmos.” Foi uma resposta esquec√≠vel, mas, felizmente, eu estava gravando. Em um aplicativo do Google.

Este artigo é uma grande reflexão para a nova realidade metaversica que, a cada dia, estamos mais inseridos. Mas seja no mundo físico, seja no mundo digital, ninguém quer ser enganado. Concorda comigo?

Fonte: https://www.wired.com/story/where-memory-ends-and-generative-ai-begins

ūüõ©ūüĒąJato hipers√īnico movido a hidrog√™nio reduz viagem dos EUA para a Austr√°lia de 17 horas para 4, numa velocidade 5 vezes mais r√°pida que o som

Destinus completed a successful test flight of a prototype at the end of last yearCredit: Cover Images

Uma empresa desenvolveu um jato hipers√īnico movido a hidrog√™nio que poderia reduzir o tempo de voo dos Estados Unidos para a Austr√°lia para menos de quatro horasūüėĪ. A startup europeia Destinus testou um prot√≥tipo nos √ļltimos anos e completou com sucesso um voo de teste no final de 2022. O jato hipers√īnico atinge uma velocidade de 3.700 mph e poderia voar dos Estados Unidos para a Austr√°lia em menos de quatro horas. A aeronave seria equipada com motores turbojato movidos a hidrog√™nio. A Destinus, sediada na Su√≠√ßa, foi fundada pelo f√≠sico e empres√°rio russo Mikhail Kokorich.

Segundo a Destinus, seus avi√Ķes hipers√īnicos reduzem o tempo de transporte intercontinental de maneira significativa, gra√ßas √† velocidade e capacidade de longo alcance habilitadas pelo uso do hidrog√™nio como combust√≠vel. Isso abriria novas rotas de voo para o transporte de passageiros e cargas em todo o mundo. O jato movido a hidrog√™nio √© capaz de viajar a uma velocidade cinco vezes maior que o som, ou seja, Mach 5, enquanto o Concorde, para efeito de compara√ß√£o, voava a uma velocidade de Mach 2.

A aeronave utilizaria motores turbo jato movidos a hidrogênio para decolagem e pouso. A Destinus afirma que o jato seria neutro em carbono, emitindo apenas calor e vapor de água. A primeira aeronave da empresa teria capacidade para 25 passageiros e é esperado que esteja pronta até 2030. No futuro, eles planejam aumentar a capacidade para até 100 passageiros a bordo.

A Destinus n√£o √© a √ļnica empresa de avia√ß√£o a revelar projetos para jatos supers√īnicos no futuro. O Hyper Sting √© um avi√£o conceito que poderia levar passageiros de Londres para Nova York em apenas 80 minutos em um futuro pr√≥ximo, viajando a uma velocidade de 2.486 mph, o dobro da velocidade do Concorde.

Fonte: https://www.the-sun.com/tech/8222575/hypersonic-hydrogen-powered-jet-destinus-australia-flight-time/

ūüėé Conhe√ßa o mais novo lan√ßamento da Apple: o Vision Pro 

E o assunto destes √ļltimos dias √© o lan√ßamento do √≥culos de realidade virtual e mista da Apple, o ‚ÄúVision Pro‚ÄĚ. Ser√° que ele vai realmente se tornar um importante elemento em nossa imers√£o de um metaverso ideal, quando os mundos f√≠sico e virtual se confundem? Ou ainda ser√° mais um ‚Äúgadget‚ÄĚ para os videogames e plataformas gameficadas? Saiba os resultados dos primeiros testes realizados por Nilay Patel, editor-chefe do The Verge, apresentador do podcast Decoder e co-apresentador do The Vergecast:

Eu usei o Apple Vision Pro. √Č a melhor demonstra√ß√£o de √≥culos de VR de todos os tempos. Acabei de sair de uma longa sess√£o de demonstra√ß√£o com o novo Vision Pro de US$ 3.499 da Apple, que a empresa anunciou na WWDC 2023 como “o dispositivo eletr√īnico de consumo mais avan√ßado do mundo”. √Č… s√£o √≥culos de VR fant√°sticos com v√≠deo e telas impressionantes. E fiquei feliz usando meu telefone para fazer anota√ß√Ķes enquanto usava o Vision Pro, algo que nenhum outro √≥culos at√© hoje permitiu.

Dito isso, embora a Apple obviamente prefira que as pessoas pensem no Vision Pro como um “poderoso computador espacial” ou um dispositivo de realidade aumentada, realmente n√£o h√° como contornar a natureza essencial dos √≥culos de VR da coisa, at√© as al√ßas ajust√°veis que definitivamente bagun√ßaram meu cabelo. Ele parece, sente e se comporta como √≥culos VR. Se voc√™ usou um Meta Quest, imagine o melhor Meta Quest poss√≠vel rodando algo muito parecido com o iPadOS, e voc√™ ir√° conseguir!

A Apple realizou demonstra√ß√Ķes do Vision Pro em um grande edif√≠cio branco em forma de cubo que construiu para a WWDC chamado Fieldhouse. Ao entrar, recebi um iPhone para um r√°pido processo de configura√ß√£o: uma varredura de virar o rosto em um c√≠rculo (muito parecida com a configura√ß√£o do Face ID que determinava o tamanho da m√°scara facial a ser usada) e, em seguida, outra varredura facial de lado a lado que olhava para meus ouvidos para calibrar o √°udio espacial. Depois disso, a Apple me fez visitar um “especialista em vis√£o” que perguntou se eu usava √≥culos – eu estava usando meus contatos, mas os usu√°rios de √≥culos tinham uma verifica√ß√£o r√°pida de prescri√ß√£o para que a Apple pudesse encaixar os Vision Pros com as lentes apropriadas. (As lentes s√£o feitas pela Zeiss; A Apple precisava de um parceiro que pudesse vender legalmente lentes de grau. Eles se encaixam magneticamente e ser√£o vendidos separadamente no lan√ßamento.)

O fone de ouvido em si pesa um pouco menos de um quilo – ele √© conectado por um cabo de energia branco tran√ßado a uma bateria prateada que oferece cerca de duas horas de uso. O cabo se desprende do fone de ouvido com uma trava mec√Ęnica, mas est√° permanentemente conectado √† bateria. Se voc√™ quiser conectar √† parede, conecte um adaptador USB-C √† bateria.

O design √© todo em alum√≠nio escovado, vidro brilhante e tecidos macios; a vibe est√° mais pr√≥xima do iPhone 6 do que do iPhone 14. Esse vidro na frente √© uma pe√ßa obviamente complexa de engenharia √≥ptica: √© perfeitamente curvo, mas ainda serve como uma lente apropriada para as c√Ęmeras e a tela OLED que mostra seus olhos quando voc√™ est√° olhando para as pessoas. (Este recurso √© chamado de EyeSight; Eu n√£o cheguei a tentar de forma alguma.)

Ao redor do √≥culos em si, voc√™ contar√° 12 c√Ęmeras, um sensor LIDAR e uma c√Ęmera TrueDepth, bem como iluminadores de inunda√ß√£o IR para garantir que as c√Ęmeras possam ver suas m√£os em ambientes escuros para fins de controle. A coisa toda funciona em uma combina√ß√£o de processadores M2 da Apple e novos processadores R1, que sem surpresa geram uma boa quantidade de calor. O Vision Pro ventila esse calor puxando o ar para cima atrav√©s da parte inferior do dispositivo e ventilando-o para fora da parte superior.

A parte superior do Vision Pro tem um botão à esquerda que serve como um botão do obturador para tirar vídeos e fotos 3D, que eu não consegui experimentar. A Coroa Digital está à direita; clicar nele traz a tela inicial dos ícones do aplicativo, enquanto o gira altera o nível de imersão em RV em certos modos. Perguntei por que alguém gostaria de definir o nível de imersão em qualquer lugar que não seja all-on ou all-off, e parece que a Apple está pensando na configuração de imersão intermediária como uma espécie de espaço de trabalho ajustável para aplicativos, deixando as laterais abertas para você conversar com seus colegas.

Quando voc√™ coloca o dispositivo, h√° um ajuste autom√°tico r√°pido dos olhos que √© muito mais r√°pido e cont√≠nuo do que em algo como o Quest Pro – n√£o h√° mostradores manuais ou controles deslizantes para configura√ß√Ķes de olhos. A Apple n√£o disse nada espec√≠fico sobre seu campo de vis√£o muito antes do lan√ßamento, mas eu definitivamente vi preto na minha vis√£o perif√©rica. O Vision Pro n√£o √© t√£o imersivo quanto os v√≠deos de marketing querem fazer voc√™ acreditar.

A tela em si √© absolutamente incr√≠vel: uma tela 4K para cada olho, com pixels de apenas 23 m√≠crons de tamanho. No pouco tempo que experimentei, era totalmente vi√°vel para ler texto no Safari (carreguei o The Verge, claro), ver fotos e assistir filmes. √Č facilmente a tela VR de maior resolu√ß√£o que eu j√° vi. Havia algumas listras verdes e roxas ao redor das bordas das lentes, mas n√£o posso dizer com certeza se isso se deveu ao ajuste r√°pido ou √† natureza de demonstra√ß√£o inicial do dispositivo ou algo totalmente diferente. Teremos que ver quando ele realmente ser√° enviado.

A passagem do v√≠deo foi igualmente impressionante. Apareceu com lat√™ncia zero e era n√≠tido, n√≠tido e claro. Conversei alegremente com outras pessoas, andei pela sala e at√© tomei notas no meu telefone enquanto usava o fone de ouvido ‚Äď algo que eu nunca seria capaz de fazer com algo como o Meta Quest Pro. Dito isso, ainda √© passagem de v√≠deo. Eu podia ver uma compress√£o bastante intensa √†s vezes, e perda de detalhes quando os rostos das pessoas se moviam para sombras. Eu podia ver a luz IR na frente do meu iPhone piscar inutilmente enquanto tentava desbloquear com o FaceID sem sucesso. E a tela era mais fraca do que a sala em si, ent√£o quando tirei o fone de ouvido meus olhos tive que se ajustar ao qu√£o mais brilhante a sala era na realidade.

Da mesma forma, a capacidade da Apple de fazer realidade mista √© impressionante. Em um ponto em uma demonstra√ß√£o completa de VR Avatar eu levantei minhas m√£os para gesticular em algo, e o fone de ouvido detectou automaticamente minhas m√£os e as sobrep√īs na tela, ent√£o notei que eu estava falando com algu√©m e as fiz aparecer tamb√©m. Leitor, eu engasguei. A Apple tamb√©m foi muito mais longe com o rastreamento ocular e o controle por gestos: o rastreamento ocular era bastante s√≥lido, e esses iluminadores IR e c√Ęmeras laterais significam que voc√™ pode tocar o polegar e o indicador juntos para selecionar as coisas enquanto elas est√£o no colo ou ao lado. Voc√™ n√£o precisa estar apontando para nada. √Č muito legal.

A Apple claramente resolveu um monte de grandes problemas de intera√ß√£o de hardware com √≥culos de VR, principalmente superando a engenharia e gastando mais do que todos os outros que tentaram. Mas ainda n√£o respondeu √† pergunta sobre para que servem essas coisas: a interface principal √© muito mais uma grade de √≠cones, e a maioria das demos eram basicamente proje√ß√Ķes de telas gigantes com aplicativos muito familiares. Saf√°ri. Fotos. Filmes. O aplicativo de colabora√ß√£o Freeform. Videochamadas FaceTime. Houve uma demonstra√ß√£o com dinossauros 3D onde uma borboleta pousou na minha m√£o estendida, mas isso foi tanto “realidade aumentada” quanto eu realmente experimentei. (Sim, mapear a sala e projetar as telas √© um trabalho de RA muito complexo, mas n√£o havia tanto quanto um aplicativo de medi√ß√£o de coisas depois de anos de demonstra√ß√Ķes ARKit na WWDC. Foi estranho.)

Eu consegui ver uma r√°pida chamada do FaceTime com outra pessoa em um Vision Pro usando uma “persona” 3D gerada por IA (a Apple n√£o gosta quando voc√™ os chama de “avatares”), o que foi impressionante e profundamente estranho. Era imediatamente √≥bvio que eu estava falando com uma persona de uma maneira estranha, especialmente porque a maior parte do rosto da pessoa estava congelada al√©m de sua boca e olhos. Mas mesmo isso foi convincente depois de um tempo, e certamente muito mais agrad√°vel do que sua chamada m√©dia do Zoom. Voc√™ montou uma persona segurando o fone de ouvido na sua frente e deixando que ele escaneasse seu rosto, mas eu n√£o fui capaz de configurar um sozinho e claramente h√° muito refinamento ainda por vir, ent√£o vou reter o julgamento at√© mais tarde.

Tudo isso foi basicamente um grande sucesso das demonstra√ß√Ķes de VR, incluindo alguns standbys antigos: a Apple mostrou v√≠deos 180D de 3 graus com √°udio espacial em algo chamado Apple Immersive Video Format, que a empresa aparentemente filmou com c√Ęmeras propriet√°rias que pode ou n√£o lan√ßar. (Eles se pareciam com os v√≠deos 3D que vemos em demonstra√ß√Ķes de RV desde sempre.) Eu olhei para uma foto 3D de algumas crian√ßas fofas tiradas pelas c√Ęmeras do fone de ouvido e assisti a um v√≠deo 3D dessas crian√ßas soprando uma vela de anivers√°rio. (Mesmo.) Fiz uma medita√ß√£o Mindfulness de um minuto em que uma voz me ordenou a ser grata enquanto a sala escurecia e uma esfera de tri√Ęngulos coloridos se expandia ao meu redor. (Isso parecia √≥timo, mas Supernatural existe, tem milh√Ķes de usu√°rios na Quest e oferece medita√ß√£o guiada desde 2020.) E eu assisti Avatar no que parecia ser uma sala de cinema, que, bem, essa √© uma das demos de realidade virtual mais antigas de todos os tempos.

Tudo isso foi melhorado pelo hardware Vision Pro extremamente superior? Sem d√ļvida. Mas tornou-se mais convincente? Eu n√£o sei, e n√£o tenho certeza se posso saber com apenas um curto per√≠odo usando o dispositivo. Eu sei que usar essa coisa parecia estranhamente solit√°rio. Como voc√™ assiste a um filme com outras pessoas em um Vision Pro? E se voc√™ quiser colaborar com as pessoas na sala com voc√™ e as pessoas no FaceTime? O que significa que a Apple quer que voc√™ use um fone de ouvido na festa de anivers√°rio do seu filho? H√° apenas mais perguntas do que respostas aqui, e algumas dessas perguntas atingem a pr√≥pria natureza do que significa para nossas vidas serem literalmente mediadas por telas.

Tamb√©m sei que a Apple ainda tem uma longa lista de coisas que quer refinar entre agora e o pr√≥ximo ano, quando o Vision Pro for lan√ßado. Essa √© parte da raz√£o pela qual est√° sendo anunciado na WWDC: para permitir que os desenvolvedores reajam a isso, descobrir que tipos de aplicativos eles podem criar e come√ßar a us√°-los. Mas essa √© a mesma promessa que ouvimos sobre √≥culos de realidade virtual h√° anos, da Meta e de outros. A Apple pode claramente superar todos na ind√ļstria quando se trata de hardware, especialmente quando o custo aparentemente n√£o √© objeto. Mas o rolo de demonstra√ß√£o de fone de ouvido mais perfeito de todos os tempos ainda √© apenas um rolo de demonstra√ß√£o de √≥culos de VR – se a famosa comunidade de desenvolvedores da Apple pode gerar um aplicativo matador para o Vision Pro ainda est√° no ar.

A Carta do Especialista de hoje foi escrita por Intelig√™ncia Artificial. Ou n√£o? Como saber a diferen√ßa, em tempos que rob√īs de jardinagem est√£o passando pelo Teste de Turing e a IA est√° passando a ser a estrela principal dos cursos de computa√ß√£o de Harvard? E n√£o como mat√©ria e sim como na fun√ß√£o de professora! Se para voc√™ estes argumentos n√£o forem suficientes, chegamos a um momento que a linha entre nossas mem√≥rias reais e aquelas sonhadas por uma IA, est√° ficando borrada…Sim…Um perigo…E, como tudo est√° indo numa velocidade exponencial, conhe√ßa o novo avi√£o que pode viajar numa velocidade 5 vezes maior do que o som, reduzindo o tempo de viagem entre EUA e Australia, de 17 para 4 horas. E finalizo a Carta com uma an√°lise do lan√ßamento dos √≥culos de realidade virtual e mista da Apple, que talvez nos fa√ßa avan√ßar mais um passo na jornada de busca de um Metaverso ideal.

ūü§ĖRob√īs de Jardinagem passam no Teste de Turing

UC Berkeley’s AlphaGarden prunes some of its plants. UC BERKELEY

Na Carta do Especialista da semana passada (Clique aqui para ler), focada em IA, comentei a respeito do Teste de Turing, desenvolvido em 1950 por Alan Turing, que levantou a quest√£o “M√°quinas podem pensar?” propondo um teste baseado na compara√ß√£o entre a capacidade humana e a capacidade da m√°quina em responder perguntas.

Come√ßo a Carta de hoje aproveitando a este link e adaptando a pergunta para as “M√°quinas podem jardinar?”, atrav√©s da compara√ß√£o entre a habilidade humana e de uma m√°quina em cuidar de um jardim de policultura real.

A Universidade da Calif√≥rnia, Berkeley, tem uma longa hist√≥ria de pesquisa em jardins rob√≥ticos, que remonta ao in√≠cio dos anos 90, quando j√° cuidavam de um jardim inteiro com a ajuda de um rob√ī. Contudo, a verdadeira quest√£o hoje √©: o rob√ī pode cuidar de um jardim de forma t√£o eficaz quanto um humano? Vamos agora adentrar o campo da CI√äNCIA! ūüĎŹ

Diretamente de Berkeley, um avan√ßado rob√ī chamado AlphaGarden, com habilidades superiores √†s de um jardineiro profissional, est√° redefinindo os cuidados com as plantas. Esses rob√īs n√£o s√£o sofisticados; s√£o sistemas hidrop√īnicos automatizados que controlam a √°gua, os nutrientes e at√© mesmo a luz solar simulada. Eles fazem um trabalho incr√≠vel gerando evid√™ncias de que os jardineiros rob√≥ticos podem ser t√£o eficientes quanto os melhores jardineiros humanos e, em alguns aspectos, at√© super√°-los.

O AlphaGarden √© uma combina√ß√£o de um sistema de cultivo rob√≥tico em um p√≥rtico comercial e o AlphaGardenSim, um software desenvolvido pela UC Berkeley que instrui o rob√ī sobre como maximizar a sa√ļde e o crescimento das plantas. O sistema inclui uma c√Ęmera de alta resolu√ß√£o e sensores de umidade do solo para monitorar o crescimento das plantas. Tudo √© automatizado, desde o plantio de sementes at√© a irriga√ß√£o por gotejamento e a poda. O jardim em si √© complexo, sendo um jardim de policultura, onde diferentes plantas coexistem. Esse tipo de cultivo imita o crescimento natural das plantas e traz benef√≠cios como a resist√™ncia a pragas, a redu√ß√£o da necessidade de aduba√ß√£o e a melhoria da sa√ļde do solo. No entanto, a policultura requer mais trabalho manual do que a monocultura, que √© o m√©todo predominante na agricultura em larga escala.

Para avaliar o desempenho do AlphaGarden, os pesquisadores da UC Berkeley realizaram um experimento. Eles plantaram duas √°reas agr√≠colas lado a lado, utilizando as mesmas sementes. Ao longo de dois meses, o AlphaGarden cuidou de uma das √°reas em tempo integral, enquanto jardineiros profissionais cuidaram da outra √°rea. Em um segundo teste, o AlphaGarden teve permiss√£o para plantar as sementes em diferentes momentos, dando uma vantagem inicial √†s plantas de crescimento mais lento. Durante o experimento, um ser humano precisou ajudar o rob√ī ocasionalmente com a poda, seguindo as instru√ß√Ķes fornecidas pelo pr√≥prio rob√ī quando a ferramenta de poda n√£o conseguia realizar determinadas tarefas.

Os resultados desses testes mostraram que o rob√ī alcan√ßou resultados semelhantes ao jardineiro profissional em termos de diversidade e cobertura das plantas. Em outras palavras, as plantas cresceram t√£o bem com os cuidados do rob√ī quanto com os cuidados de um jardineiro humano experiente. A diferen√ßa significativa foi que o rob√ī conseguiu realizar a tarefa com um consumo de √°gua 44% menor, economizando centenas de litros em apenas dois meses.

O futuro desse campo ainda √© incerto, uma vez que o custo do hardware √© elevado, enquanto a m√£o de obra humana √© relativamente mais acess√≠vel. No entanto, para aqueles de n√≥s que n√£o s√£o especialistas em jardinagem, √© f√°cil imaginar a instala√ß√£o de c√Ęmeras e sensores em nossos jardins, seguido as orienta√ß√Ķes de um simulador sobre quando e onde regar e podar. Estou sempre disposto a ceder o trabalho para um rob√ī que sabe fazer melhor do que eu. ūüėÖ‚Äô E voc√™?

Fonte: https://spectrum.ieee.org/robot-gardener

ūüĖ•Professor de Harvard aproveita IA para ajudar a dar a aula de computa√ß√£o

A.I. will be used to teach coding in a Harvard University course with more than 40,000 online students. getty

O CS50, o curso de ciência da computação mais popular do mundo, oferecido pela Universidade de Harvard, está passando por uma transformação na era do ChatGPT. O professor David J. Malan, responsável pelo curso, planeja utilizar inteligência artificial para avaliar tarefas, ensinar programação e fornecer dicas personalizadas de aprendizagem.

O estilo de ensino en√©rgico e envolvente de Malan tem sido elogiado por transformar palestras mon√≥tonas e b√°sicas sobre os fundamentos do desenvolvimento web e programa√ß√£o de software em aulas divertidas, repletas de exerc√≠cios interativos. No entanto, com o crescente n√ļmero de alunos conectados de fusos hor√°rios diferentes e com diferentes n√≠veis de conhecimento e experi√™ncia, tornou-se desafiador oferecer suporte individualizado √†s perguntas espec√≠ficas dos alunos.

Para lidar com esse desafio em grande escala, a equipe do CS50 est√° desenvolvendo um sistema de intelig√™ncia artificial para avaliar o trabalho dos alunos e testando um assistente de ensino virtual para avaliar e fornecer feedback sobre a programa√ß√£o dos estudantes. O assistente virtual faz perguntas ret√≥ricas e oferece sugest√Ķes para auxiliar no aprendizado, em vez de simplesmente detectar erros e corrigir bugs de programa√ß√£o. A ideia √© que, a longo prazo, isso permita que os assistentes de ensino humanos tenham mais tempo para interagir presencialmente ou por meio de videochamadas.

Essa iniciativa ocorre em um momento em que os educadores est√£o preocupados com o fato de que tecnologias como o ChatGPT possam facilitar a trapa√ßa e a pl√°gio por parte dos alunos, sem serem detectados. Algumas escolas e universidades em todo o mundo j√° proibiram o uso desse tipo de ferramenta. Al√©m disso, o avan√ßo da intelig√™ncia artificial tamb√©m afetou as a√ß√Ķes de empresas de educa√ß√£o online, como a Chegg Inc., que recentemente registrou uma desacelera√ß√£o no crescimento de assinantes √† medida que as pessoas experimentam o chatbot gratuito desenvolvido pela OpenAI.

No entanto, Malan argumenta que o uso da intelig√™ncia artificial pelo CS50 pode destacar os benef√≠cios dessa tecnologia para a educa√ß√£o, especialmente na melhoria da qualidade e do acesso ao aprendizado online. Segundo estimativas da Grand View Research, esse setor tem previs√£o de crescimento para US$ 348 bilh√Ķes at√© 2030, quase triplicando em rela√ß√£o a 2022.

O CS50 come√ßou como uma √ļnica aula introdut√≥ria de computa√ß√£o e, ao longo do tempo, evoluiu para v√°rias disciplinas, alcan√ßando mais de 1,4 milh√£o de inscritos no YouTube e oferecendo produtos com a marca do curso, como bolas antiestresse e camisetas. Ao longo dos anos, mais de 4,7 milh√Ķes de pessoas se inscreveram no curso. Atualmente, ele est√° dispon√≠vel como parte da plataforma de aprendizagem digital edX, criada pela Harvard e pelo Instituto de Tecnologia de Massachusetts, que oferece cursos online de n√≠vel universit√°rio em diversas √°reas.

Alguns especialistas, no entanto, aconselham cautela no uso da intelig√™ncia artificial, uma vez que essa tecnologia ainda est√° em desenvolvimento e suscet√≠vel a erros. Nas √ļltimas semanas, CEOs das principais empresas de IA, incluindo a OpenAI e a DeepMind, da Alphabet, al√©m de outras lideran√ßas da √°rea de tecnologia, t√™m alertado sobre os riscos da IA sem controle.

Outros especialistas também alertaram sobre os riscos éticos do uso da IA na educação, especialmente no que diz respeito à coleta de dados para personalizar as aulas. Para garantir a privacidade dos alunos, as plataformas precisarão incorporar medidas de privacidade e garantir que os processos de coleta de dados sejam transparentes, afirmou Emma Taylor, analista da consultoria GlobalData, com sede em Londres.

Apesar das preocupa√ß√Ķes e desafios, o CS50 acredita no potencial capacitador da IA na educa√ß√£o. O curso, que come√ßou como uma aula introdut√≥ria de computa√ß√£o, evoluiu para se tornar um fen√īmeno global, com milh√Ķes de inscritos e uma presen√ßa marcante no ambiente digital. A ado√ß√£o da intelig√™ncia artificial no CS50 tem como objetivo melhorar a qualidade e o acesso ao aprendizado online, contribuindo para um setor que continua a crescer e se expandir.

Eu sempre defendi a tese de que humanos e máquinas fazem uma combinação perfeita. Neste caso, a combinação do estilo de ensino cativante de David J. Malan com o poder da inteligência artificial promete oferecer uma experiência de aprendizagem ainda mais personalizada e envolvente para os estudantes do CS50. Essa iniciativa certamente terá um impacto significativo no campo da educação online e abrirá novas possibilidades para o ensino de ciência da computação em larga escala.

Fonte: https://fortune.com/2023/06/03/ai-to-help-teach-harvard-university-online-computer-science-course/amp/

ūüėīMem√≥rias reais sendo sobrepostas por mem√≥rias sonhadas pela IA?

PHOTOGRAPH: TARA MOORE/GETTY IMAGES

Nos 2 primeiros temas explorados na Carta de hoje, est√° claro o quanto a IA est√° passando a fazer parte de nossas vidas. Mas…Olhe que perigo…Novas ferramentas de manipula√ß√£o de fotos do Google e da Adobe est√£o fazendo com que as linhas entre mem√≥rias reais e aquelas sonhadas pela IA se confundam.

Em fevereiro deste ano, a startup Runway, mais conhecida por cocriar o Stable Diffusion, a ferramenta de IA de texto para imagem que capturou imagina√ß√Ķes em 2022, lan√ßou uma ferramenta que poderia mudar todo o estilo de um v√≠deo existente com apenas um simples prompt e, no final de mar√ßo, organizou o que disse ser o primeiro festival de cinema de IA no teatro Alamo Drafthouse, em S√£o Francisco. Foram selecionados 10 curtas-metragens de cineastas iniciantes que eram, em sua maioria, demonstra√ß√Ķes de tecnologia. Narrativas bem constru√≠das ficaram em segundo plano. Algumas foram surreais e, em pelo menos um caso, intencionalmente macabras.

Mas o √ļltimo filme exibido provocou arrepios. Parecia que o cineasta havia deliberadamente entendido mal a tarefa, evitando o v√≠deo para imagens est√°ticas. Chamado de Inf√Ęncia Expandida, o “filme” de IA era uma apresenta√ß√£o de slides de fotos com um eco quase inaud√≠vel de narra√ß√£o.

O diretor Sam Lawton, um estudante de cinema de 21 anos de Nebraska, mais tarde me disse que usou o DALL-E da OpenAI para alterar as imagens. Ele montou uma s√©rie de fotos de sua inf√Ęncia, alimentou-as com a ferramenta de IA e deu v√°rios comandos para expandir as imagens: preencher as bordas com mais vacas, ou √°rvores; inserir no quadro pessoas que realmente n√£o estiveram l√°; para reimaginar como era a cozinha. Jogue outro filhote na banheira ‚Äď por que n√£o? Lawton mostrou as imagens geradas pela IA para seu pai, gravou suas rea√ß√Ķes confusas e inseriu o √°udio no filme.

“N√£o, essa n√£o √© a nossa casa. Uau, espere um minuto. Essa √© a nossa casa. Algo est√° errado. N√£o sei o que √© isso. Ser√° que eu simplesmente n√£o me lembro?” O pai de Lawton pode ser ouvido dizendo.

Onde terminam as mem√≥rias reais e come√ßa a IA generativa? √Č uma quest√£o para a era da IA, onde nossas fotos sagradas podem se fundir com mem√≥rias ‚Äúfake‚ÄĚ, constru√≠das a partir de novos pixels gerados inteiros pela intelig√™ncia artificial.

Nas √ļltimas semanas, os gigantes da tecnologia Google e Adobe, cujas ferramentas coletivamente atingem bilh√Ķes de dedos, lan√ßaram ferramentas de edi√ß√£o alimentadas por IA que mudam completamente o contexto das imagens, ultrapassando os limites da verdade, mem√≥ria e fotografia aprimorada.

O Google mergulhou os p√©s na √°gua com o lan√ßamento de Magic Eraser em 2021. Agora, a empresa est√° testando o Magic Editor, um recurso em telefones Android selecionados que reposiciona assuntos, remove foto bombardeiros e edita outros elementos indecorosos e, em seguida, usa IA generativa para preencher lacunas de pixel. A Adobe, indiscutivelmente a fabricante mais famosa de software de edi√ß√£o criativa, anunciou no in√≠cio desta semana que estava colocando seu mecanismo de IA generativo Firefly no Adobe Photoshop. O recurso de Preenchimento Gerativo editar√° fotos e inserir√° novo conte√ļdo por meio de um prompt baseado em texto. Digite “adicionar algumas nuvens” e l√° elas aparecem.

A Adobe est√° chamando-o de “copiloto” para fluxos de trabalho criativos, termo que outras empresas de tecnologia, como a Microsoft, tamb√©m est√£o usando para descrever aplicativos de IA generativos. Por ora, pelo menos, voc√™ ainda est√° no controle total, tendo a IA como assistente, assumindo a navega√ß√£o quando voc√™ precisa de uma pausa no banheiro. Mas talvez isto j√° seja um equ√≠voco,  a partir do instante que a IA passa a agir como um cart√≥grafo, redesenhando os mapas de sua exist√™ncia.

‚ÄúTorne suas mem√≥rias perfeitas‚ÄĚ √© talvez a frase mais assombrosa que j√° li, tuitou a presidente da Signal Foundation e ex-Googler Meredith Whittaker em fevereiro, em resposta ao an√ļncio do Google de que sua ferramenta Magic Eraser ficaria dispon√≠vel para uma gama maior de telefones. Em sua comercializa√ß√£o da ferramenta, o Google mostra uma imagem de uma jovem enfrentando um mar agitado. Mais perto da costa est√° uma fam√≠lia de quatro pessoas, presumivelmente n√£o a dela. Magic Eraser faz com que eles desapare√ßam.

Em nossa hist√≥ria, sempre pod√≠amos editar fotos. Seja por tesoura, navalha ou tinta, desde que a foto impressa passou a existir, n√≥s a editamos. Com a chegada do Photoshop em 1990, no computador pessoal, tudo mudou… “Jennifer in Paradise” foi a foto digital mais vista em todo o mundo: uma imagem da esposa do cocriador do Photoshop, John Knoll, sentada em uma praia em Bora Bora. Em demos, Knoll delineava sua esposa usando a agora famosa ferramenta de la√ßo e, em seguida, a clonava. Copiou, colou, encolheu e difundiu uma ilha ao longe. “Uma ilha duplicada!” Knoll disse em um v√≠deo postado no canal da Adobe no YouTube em 2010. Uma ilha que n√£o estava realmente l√°. Uma massa de terra fabricada.

O que √© diferente hoje ‚Äď o que a IA generativa est√° ultrapassando limites ‚Äď √© a velocidade com que essas edi√ß√Ķes podem ser feitas e quem pode faz√™-las. “As ferramentas de edi√ß√£o existem h√° muito tempo”, diz Shimrit Ben-Yair, chefe do Google Fotos. “E, obviamente, temos oferecido ferramentas de edi√ß√£o no Fotos h√° algum tempo. √Ä medida que essas plataformas aumentaram suas bases de usu√°rios, essas ferramentas se tornaram muito mais acess√≠veis e dispon√≠veis para as pessoas. E imagens editadas se tornam mais comuns.”

Uma demonstra√ß√£o inicial da ferramenta Magic Eraser do Google apresenta duas crian√ßas usando roupas de mergulho e pranchas de boogie, com dois adultos ao fundo distante. As crian√ßas e os adultos t√™m tons de pele diferentes, e a suposi√ß√£o um tanto desconfort√°vel nesta demo ‚Äď tamb√©m enfatizada pela dist√Ęncia entre eles ‚Äď √© que eles n√£o s√£o fam√≠lia. O Magic Eraser do Google delineou os adultos ao fundo, depois os desapareceu.

Em uma demonstra√ß√£o mais recente, o Magic Editor, que ser√° lan√ßado no final deste ano, apagou a al√ßa da bolsa do ombro de uma mulher enquanto ela posava em frente a uma cachoeira e, em seguida, preencheu as lacunas com mais material de jaqueta. Porque a al√ßa da bolsa em uma foto de caminhada era t√£o inc√īmoda, n√£o sei. Mas essas decis√Ķes est√©ticas s√£o prerrogativa do criador da foto, diz o Google.

O Generative Fill da Adobe √© muito mais generativo. Um c√£o de pelos longos caminha por uma estrada vazia. √Č isso, essa √© a foto. Mas este recurso alonga o caminho, transforma √°rvores est√©reis em flores da primavera. Uma caminhonete branca aparece, e se ela est√° dirigindo em dire√ß√£o ao c√£o ou longe dele muda a tens√£o da foto de uma maneira not√°vel. Mas, olha, agora tem po√ßa. Certamente essa √© uma foto feliz? A IA generativa √© at√© inteligente o suficiente para elaborar um reflexo do filhote nas po√ßas. Ele faz tudo isso em segundos, o que impressiona.

Mas depois do espanto vem “E agora?” Suponha que seja minha foto de caminhada, meu cachorro, minha fam√≠lia na praia. Como vou me lembrar desse dia se no futuro eles s√£o apenas aquarela no meu c√©rebro, e eu cada vez mais recorro ao meu rolo de fotos para tra√ßos mais v√≠vidos? Eu realmente n√£o carreguei uma bolsa durante a caminhada? A caminhonete chegou perigosamente perto do meu cachorro naquele dia? Eu s√≥ passei f√©rias em praias imaculadas e privadas?

Executivos do Google e da Adobe dizem que o poder das ferramentas deve ser considerado dentro do contexto da foto. Quem est√° levando, quem est√° compartilhando, para onde est√° sendo compartilhado. “Acho que, no contexto de um espa√ßo p√ļblico, h√° expectativas diferentes de uma foto ser compartilhada em um espa√ßo privado”, diz Ben-Yair. “Se algu√©m est√° compartilhando uma foto com voc√™ por meio do pr√≥prio Google Fotos ou de um aplicativo de mensagens que voc√™ usa, voc√™ confia nessa fonte. E voc√™ pode ver a edi√ß√£o como algo que melhora a foto, porque voc√™ confia nessa fonte.”

“Mas quanto mais camadas de abstra√ß√£o houver”, ela continua, “onde voc√™ n√£o sabe a fonte, ent√£o sim, voc√™ tem que pensar, qu√£o aut√™ntica √© essa foto?”

Da mesma forma, Andy Parsons, da Adobe, diz que h√° um “continuum de casos de uso” para fotos editadas por IA. Um artista (ou indiv√≠duo que se fantasia de artista) pode usar IA generativa para alterar uma foto que deve ser uma interpreta√ß√£o criativa, n√£o documenta√ß√£o. Por outro lado, “se √© muito importante saber que o que est√° sendo apresentado na foto √© um reflexo da realidade, como em uma organiza√ß√£o de not√≠cias, esperamos ver cada vez mais fot√≥grafos sendo obrigados a fornecer transpar√™ncia”, diz Parsons.

Parsons √© algo como o rei da proveni√™ncia na Adobe. Seu cargo atual √© diretor s√™nior da Content Authenticity Initiative, um grupo que a Adobe cocriou em 2019 para estabelecer diretrizes intersetoriais sobre origina√ß√£o de conte√ļdo e transpar√™ncia de m√≠dia. Foi o v√≠deo manipulado de Nancy Pelosi, diz Parsons, em que a presidente da C√Ęmara parecia estar a proferir as suas palavras, que “mais uma vez, mudou a hist√≥ria”. Mesmo que a edi√ß√£o n√£o tenha sido creditada √† IA, a pura manipula√ß√£o do v√≠deo de Pelosi fez a Adobe reconsiderar como suas poderosas ferramentas de edi√ß√£o poderiam ser usadas. Os primeiros parceiros da Adobe no CAI foram o Twitter e o The New York Times. A Coaliz√£o agora tem mais de mil membros em v√°rios setores.

Ent√£o, em 2021, a Adobe uniu for√ßas com a BBC, as fabricantes de chips Intel e ARM e a Microsoft para criar mais um cons√≥rcio para padr√Ķes em torno da “proveni√™ncia digital”, chamado ‚ÄúCoalition for Content Provenance and Authenticity‚ÄĚ, ou C2PA. Na recente confer√™ncia anual de software da Microsoft, a empresa disse que seu Bing Image Creator em breve usar√° m√©todos criptogr√°ficos padr√£o C2PA para assinar conte√ļdo gerado por IA. (Ben-Yair, do Google, tamb√©m diz que esta √© uma “√°rea ativa de trabalho para a empresa que explicaremos quando nos aproximarmos do lan√ßamento dela.”)

“Estamos todos focados na mesma ideia”, diz Parsons. “N√≥s meio que perdemos a corrida armamentista em detectar o que pode ser falso. O abismo foi ultrapassado. Ent√£o, a prote√ß√£o e contramedida que temos √© saber qual modelo foi usado para capturar ou criar uma imagem e tornar esses metadados confi√°veis.”

Em teoria, esses padr√Ķes criptogr√°ficos garantem que, se um fot√≥grafo profissional tirar uma foto para, digamos, a Reuters e essa foto for distribu√≠da pelos canais de not√≠cias internacionais da Reuters, tanto os editores que encomendam a foto quanto os consumidores que a visualizam teriam acesso a um hist√≥rico completo de dados de proced√™ncia. Eles saber√£o se as sombras foram perfuradas, se os carros da pol√≠cia foram removidos, se algu√©m foi cortado do quadro. Elementos de fotos que, de acordo com Parsons, voc√™ gostaria de ser criptograficamente prov√°veis e verific√°veis.

Claro, tudo isso se baseia na no√ß√£o de que n√≥s ‚Äď as pessoas que olhamos para fotos ‚Äď vamos querer, ou nos importar ou saber como verificar, a autenticidade de uma foto. Pressup√Ķe que somos capazes de distinguir entre social e cultura e not√≠cias, e que essas categorias s√£o claramente definidas.

Lembra-se da imagem ‚ÄúBalenciaga Pope‚ÄĚ? A imagem do Papa Francisco usando uma jaqueta estilosa foi postada pela primeira vez no subreddit r/Midjourney como uma esp√©cie de meme, espalhada entre os usu√°rios do Twitter e depois captada por ve√≠culos de not√≠cias que relatam a viralidade e as implica√ß√Ķes da imagem gerada pela IA. Arte, social, not√≠cias ‚Äď todos foram igualmente aben√ßoados pelo Papa. Agora sabemos que √© falso, mas a Balenciaga Pope viver√° para sempre em nossos c√©rebros.

Depois de ver o Magic Editor, tentei articular algo a Shimrit Ben-Yair sem atribuir um valor moral a ele, o que significa que prefaciei minha declara√ß√£o com: “Estou tentando n√£o atribuir um valor moral a isso”. √Č not√°vel, eu disse, quanto controle de nossas mem√≥rias futuras est√° nas m√£os de empresas gigantes de tecnologia agora simplesmente por causa das ferramentas e infraestrutura que existem para registrar grande parte de nossas vidas.

Ben-Yair fez uma pausa de cinco segundos antes de responder. “Sim, quero dizer… Acho que as pessoas confiam no Google com seus dados para proteger. E vejo isso como uma responsabilidade muito, muito grande para carregarmos.” Foi uma resposta esquec√≠vel, mas, felizmente, eu estava gravando. Em um aplicativo do Google.

Este artigo é uma grande reflexão para a nova realidade metaversica que, a cada dia, estamos mais inseridos. Mas seja no mundo físico, seja no mundo digital, ninguém quer ser enganado. Concorda comigo?

Fonte: https://www.wired.com/story/where-memory-ends-and-generative-ai-begins

ūüõ©ūüĒąJato hipers√īnico movido a hidrog√™nio reduz viagem dos EUA para a Austr√°lia de 17 horas para 4, numa velocidade 5 vezes mais r√°pida que o som

Destinus completed a successful test flight of a prototype at the end of last yearCredit: Cover Images

Uma empresa desenvolveu um jato hipers√īnico movido a hidrog√™nio que poderia reduzir o tempo de voo dos Estados Unidos para a Austr√°lia para menos de quatro horasūüėĪ. A startup europeia Destinus testou um prot√≥tipo nos √ļltimos anos e completou com sucesso um voo de teste no final de 2022. O jato hipers√īnico atinge uma velocidade de 3.700 mph e poderia voar dos Estados Unidos para a Austr√°lia em menos de quatro horas. A aeronave seria equipada com motores turbojato movidos a hidrog√™nio. A Destinus, sediada na Su√≠√ßa, foi fundada pelo f√≠sico e empres√°rio russo Mikhail Kokorich.

Segundo a Destinus, seus avi√Ķes hipers√īnicos reduzem o tempo de transporte intercontinental de maneira significativa, gra√ßas √† velocidade e capacidade de longo alcance habilitadas pelo uso do hidrog√™nio como combust√≠vel. Isso abriria novas rotas de voo para o transporte de passageiros e cargas em todo o mundo. O jato movido a hidrog√™nio √© capaz de viajar a uma velocidade cinco vezes maior que o som, ou seja, Mach 5, enquanto o Concorde, para efeito de compara√ß√£o, voava a uma velocidade de Mach 2.

A aeronave utilizaria motores turbo jato movidos a hidrogênio para decolagem e pouso. A Destinus afirma que o jato seria neutro em carbono, emitindo apenas calor e vapor de água. A primeira aeronave da empresa teria capacidade para 25 passageiros e é esperado que esteja pronta até 2030. No futuro, eles planejam aumentar a capacidade para até 100 passageiros a bordo.

A Destinus n√£o √© a √ļnica empresa de avia√ß√£o a revelar projetos para jatos supers√īnicos no futuro. O Hyper Sting √© um avi√£o conceito que poderia levar passageiros de Londres para Nova York em apenas 80 minutos em um futuro pr√≥ximo, viajando a uma velocidade de 2.486 mph, o dobro da velocidade do Concorde.

Fonte: https://www.the-sun.com/tech/8222575/hypersonic-hydrogen-powered-jet-destinus-australia-flight-time/

ūüėé Conhe√ßa o mais novo lan√ßamento da Apple: o Vision Pro 

E o assunto destes √ļltimos dias √© o lan√ßamento do √≥culos de realidade virtual e mista da Apple, o ‚ÄúVision Pro‚ÄĚ. Ser√° que ele vai realmente se tornar um importante elemento em nossa imers√£o de um metaverso ideal, quando os mundos f√≠sico e virtual se confundem? Ou ainda ser√° mais um ‚Äúgadget‚ÄĚ para os videogames e plataformas gameficadas? Saiba os resultados dos primeiros testes realizados por Nilay Patel, editor-chefe do The Verge, apresentador do podcast Decoder e co-apresentador do The Vergecast:

Eu usei o Apple Vision Pro. √Č a melhor demonstra√ß√£o de √≥culos de VR de todos os tempos. Acabei de sair de uma longa sess√£o de demonstra√ß√£o com o novo Vision Pro de US$ 3.499 da Apple, que a empresa anunciou na WWDC 2023 como “o dispositivo eletr√īnico de consumo mais avan√ßado do mundo”. √Č… s√£o √≥culos de VR fant√°sticos com v√≠deo e telas impressionantes. E fiquei feliz usando meu telefone para fazer anota√ß√Ķes enquanto usava o Vision Pro, algo que nenhum outro √≥culos at√© hoje permitiu.

Dito isso, embora a Apple obviamente prefira que as pessoas pensem no Vision Pro como um “poderoso computador espacial” ou um dispositivo de realidade aumentada, realmente n√£o h√° como contornar a natureza essencial dos √≥culos de VR da coisa, at√© as al√ßas ajust√°veis que definitivamente bagun√ßaram meu cabelo. Ele parece, sente e se comporta como √≥culos VR. Se voc√™ usou um Meta Quest, imagine o melhor Meta Quest poss√≠vel rodando algo muito parecido com o iPadOS, e voc√™ ir√° conseguir!

A Apple realizou demonstra√ß√Ķes do Vision Pro em um grande edif√≠cio branco em forma de cubo que construiu para a WWDC chamado Fieldhouse. Ao entrar, recebi um iPhone para um r√°pido processo de configura√ß√£o: uma varredura de virar o rosto em um c√≠rculo (muito parecida com a configura√ß√£o do Face ID que determinava o tamanho da m√°scara facial a ser usada) e, em seguida, outra varredura facial de lado a lado que olhava para meus ouvidos para calibrar o √°udio espacial. Depois disso, a Apple me fez visitar um “especialista em vis√£o” que perguntou se eu usava √≥culos – eu estava usando meus contatos, mas os usu√°rios de √≥culos tinham uma verifica√ß√£o r√°pida de prescri√ß√£o para que a Apple pudesse encaixar os Vision Pros com as lentes apropriadas. (As lentes s√£o feitas pela Zeiss; A Apple precisava de um parceiro que pudesse vender legalmente lentes de grau. Eles se encaixam magneticamente e ser√£o vendidos separadamente no lan√ßamento.)

O fone de ouvido em si pesa um pouco menos de um quilo – ele √© conectado por um cabo de energia branco tran√ßado a uma bateria prateada que oferece cerca de duas horas de uso. O cabo se desprende do fone de ouvido com uma trava mec√Ęnica, mas est√° permanentemente conectado √† bateria. Se voc√™ quiser conectar √† parede, conecte um adaptador USB-C √† bateria.

O design √© todo em alum√≠nio escovado, vidro brilhante e tecidos macios; a vibe est√° mais pr√≥xima do iPhone 6 do que do iPhone 14. Esse vidro na frente √© uma pe√ßa obviamente complexa de engenharia √≥ptica: √© perfeitamente curvo, mas ainda serve como uma lente apropriada para as c√Ęmeras e a tela OLED que mostra seus olhos quando voc√™ est√° olhando para as pessoas. (Este recurso √© chamado de EyeSight; Eu n√£o cheguei a tentar de forma alguma.)

Ao redor do √≥culos em si, voc√™ contar√° 12 c√Ęmeras, um sensor LIDAR e uma c√Ęmera TrueDepth, bem como iluminadores de inunda√ß√£o IR para garantir que as c√Ęmeras possam ver suas m√£os em ambientes escuros para fins de controle. A coisa toda funciona em uma combina√ß√£o de processadores M2 da Apple e novos processadores R1, que sem surpresa geram uma boa quantidade de calor. O Vision Pro ventila esse calor puxando o ar para cima atrav√©s da parte inferior do dispositivo e ventilando-o para fora da parte superior.

A parte superior do Vision Pro tem um botão à esquerda que serve como um botão do obturador para tirar vídeos e fotos 3D, que eu não consegui experimentar. A Coroa Digital está à direita; clicar nele traz a tela inicial dos ícones do aplicativo, enquanto o gira altera o nível de imersão em RV em certos modos. Perguntei por que alguém gostaria de definir o nível de imersão em qualquer lugar que não seja all-on ou all-off, e parece que a Apple está pensando na configuração de imersão intermediária como uma espécie de espaço de trabalho ajustável para aplicativos, deixando as laterais abertas para você conversar com seus colegas.

Quando voc√™ coloca o dispositivo, h√° um ajuste autom√°tico r√°pido dos olhos que √© muito mais r√°pido e cont√≠nuo do que em algo como o Quest Pro – n√£o h√° mostradores manuais ou controles deslizantes para configura√ß√Ķes de olhos. A Apple n√£o disse nada espec√≠fico sobre seu campo de vis√£o muito antes do lan√ßamento, mas eu definitivamente vi preto na minha vis√£o perif√©rica. O Vision Pro n√£o √© t√£o imersivo quanto os v√≠deos de marketing querem fazer voc√™ acreditar.

A tela em si √© absolutamente incr√≠vel: uma tela 4K para cada olho, com pixels de apenas 23 m√≠crons de tamanho. No pouco tempo que experimentei, era totalmente vi√°vel para ler texto no Safari (carreguei o The Verge, claro), ver fotos e assistir filmes. √Č facilmente a tela VR de maior resolu√ß√£o que eu j√° vi. Havia algumas listras verdes e roxas ao redor das bordas das lentes, mas n√£o posso dizer com certeza se isso se deveu ao ajuste r√°pido ou √† natureza de demonstra√ß√£o inicial do dispositivo ou algo totalmente diferente. Teremos que ver quando ele realmente ser√° enviado.

A passagem do v√≠deo foi igualmente impressionante. Apareceu com lat√™ncia zero e era n√≠tido, n√≠tido e claro. Conversei alegremente com outras pessoas, andei pela sala e at√© tomei notas no meu telefone enquanto usava o fone de ouvido ‚Äď algo que eu nunca seria capaz de fazer com algo como o Meta Quest Pro. Dito isso, ainda √© passagem de v√≠deo. Eu podia ver uma compress√£o bastante intensa √†s vezes, e perda de detalhes quando os rostos das pessoas se moviam para sombras. Eu podia ver a luz IR na frente do meu iPhone piscar inutilmente enquanto tentava desbloquear com o FaceID sem sucesso. E a tela era mais fraca do que a sala em si, ent√£o quando tirei o fone de ouvido meus olhos tive que se ajustar ao qu√£o mais brilhante a sala era na realidade.

Da mesma forma, a capacidade da Apple de fazer realidade mista √© impressionante. Em um ponto em uma demonstra√ß√£o completa de VR Avatar eu levantei minhas m√£os para gesticular em algo, e o fone de ouvido detectou automaticamente minhas m√£os e as sobrep√īs na tela, ent√£o notei que eu estava falando com algu√©m e as fiz aparecer tamb√©m. Leitor, eu engasguei. A Apple tamb√©m foi muito mais longe com o rastreamento ocular e o controle por gestos: o rastreamento ocular era bastante s√≥lido, e esses iluminadores IR e c√Ęmeras laterais significam que voc√™ pode tocar o polegar e o indicador juntos para selecionar as coisas enquanto elas est√£o no colo ou ao lado. Voc√™ n√£o precisa estar apontando para nada. √Č muito legal.

A Apple claramente resolveu um monte de grandes problemas de intera√ß√£o de hardware com √≥culos de VR, principalmente superando a engenharia e gastando mais do que todos os outros que tentaram. Mas ainda n√£o respondeu √† pergunta sobre para que servem essas coisas: a interface principal √© muito mais uma grade de √≠cones, e a maioria das demos eram basicamente proje√ß√Ķes de telas gigantes com aplicativos muito familiares. Saf√°ri. Fotos. Filmes. O aplicativo de colabora√ß√£o Freeform. Videochamadas FaceTime. Houve uma demonstra√ß√£o com dinossauros 3D onde uma borboleta pousou na minha m√£o estendida, mas isso foi tanto “realidade aumentada” quanto eu realmente experimentei. (Sim, mapear a sala e projetar as telas √© um trabalho de RA muito complexo, mas n√£o havia tanto quanto um aplicativo de medi√ß√£o de coisas depois de anos de demonstra√ß√Ķes ARKit na WWDC. Foi estranho.)

Eu consegui ver uma r√°pida chamada do FaceTime com outra pessoa em um Vision Pro usando uma “persona” 3D gerada por IA (a Apple n√£o gosta quando voc√™ os chama de “avatares”), o que foi impressionante e profundamente estranho. Era imediatamente √≥bvio que eu estava falando com uma persona de uma maneira estranha, especialmente porque a maior parte do rosto da pessoa estava congelada al√©m de sua boca e olhos. Mas mesmo isso foi convincente depois de um tempo, e certamente muito mais agrad√°vel do que sua chamada m√©dia do Zoom. Voc√™ montou uma persona segurando o fone de ouvido na sua frente e deixando que ele escaneasse seu rosto, mas eu n√£o fui capaz de configurar um sozinho e claramente h√° muito refinamento ainda por vir, ent√£o vou reter o julgamento at√© mais tarde.

Tudo isso foi basicamente um grande sucesso das demonstra√ß√Ķes de VR, incluindo alguns standbys antigos: a Apple mostrou v√≠deos 180D de 3 graus com √°udio espacial em algo chamado Apple Immersive Video Format, que a empresa aparentemente filmou com c√Ęmeras propriet√°rias que pode ou n√£o lan√ßar. (Eles se pareciam com os v√≠deos 3D que vemos em demonstra√ß√Ķes de RV desde sempre.) Eu olhei para uma foto 3D de algumas crian√ßas fofas tiradas pelas c√Ęmeras do fone de ouvido e assisti a um v√≠deo 3D dessas crian√ßas soprando uma vela de anivers√°rio. (Mesmo.) Fiz uma medita√ß√£o Mindfulness de um minuto em que uma voz me ordenou a ser grata enquanto a sala escurecia e uma esfera de tri√Ęngulos coloridos se expandia ao meu redor. (Isso parecia √≥timo, mas Supernatural existe, tem milh√Ķes de usu√°rios na Quest e oferece medita√ß√£o guiada desde 2020.) E eu assisti Avatar no que parecia ser uma sala de cinema, que, bem, essa √© uma das demos de realidade virtual mais antigas de todos os tempos.

Tudo isso foi melhorado pelo hardware Vision Pro extremamente superior? Sem d√ļvida. Mas tornou-se mais convincente? Eu n√£o sei, e n√£o tenho certeza se posso saber com apenas um curto per√≠odo usando o dispositivo. Eu sei que usar essa coisa parecia estranhamente solit√°rio. Como voc√™ assiste a um filme com outras pessoas em um Vision Pro? E se voc√™ quiser colaborar com as pessoas na sala com voc√™ e as pessoas no FaceTime? O que significa que a Apple quer que voc√™ use um fone de ouvido na festa de anivers√°rio do seu filho? H√° apenas mais perguntas do que respostas aqui, e algumas dessas perguntas atingem a pr√≥pria natureza do que significa para nossas vidas serem literalmente mediadas por telas.

Tamb√©m sei que a Apple ainda tem uma longa lista de coisas que quer refinar entre agora e o pr√≥ximo ano, quando o Vision Pro for lan√ßado. Essa √© parte da raz√£o pela qual est√° sendo anunciado na WWDC: para permitir que os desenvolvedores reajam a isso, descobrir que tipos de aplicativos eles podem criar e come√ßar a us√°-los. Mas essa √© a mesma promessa que ouvimos sobre √≥culos de realidade virtual h√° anos, da Meta e de outros. A Apple pode claramente superar todos na ind√ļstria quando se trata de hardware, especialmente quando o custo aparentemente n√£o √© objeto. Mas o rolo de demonstra√ß√£o de fone de ouvido mais perfeito de todos os tempos ainda √© apenas um rolo de demonstra√ß√£o de √≥culos de VR – se a famosa comunidade de desenvolvedores da Apple pode gerar um aplicativo matador para o Vision Pro ainda est√° no ar.

Fontes: https://www.theverge.com/2023/6/5/23750003/apple-vision-pro-hands-on-the-best-headset-demo-ever

https://www.theverge.com/2023/6/6/23751414/apple-tv-vision-pro-headset

 At√© semana que vem! ūüôč ‚ôāÔłŹ

PS ‚Äď Se voc√™ quer levar assuntos e discuss√Ķes como esta para a sua organiza√ß√£o, avaliando como as tecnologias podem ajudar a gerar resultados para o seu neg√≥cio, clique aqui e vamos agendar um bate-papo.

Compartilhar:

Facebook
Twitter
Pinterest
LinkedIn
Renato Grau

Renato Grau

Engenheiro, futurista e especialista em Transformação Digital

Leave a Reply

Your email address will not be published. Required fields are marked *

Social Media

Most Popular

Categories

Receba as √ļltimas atualiza√ß√Ķes

Assine nossa newsletter semanal

Sem spam, voc√™ receber√° apenas conte√ļdos relevantes para voc√™