O que esperar da Inteligência Artificial em 2023? - Showmetech

O que esperar da Inteligência Artificial em 2023?  Showmetech

O que esperar da Inteligência Artificial em 2023? - Showmetech
AMAZON MUSIC FREE
AMAZON MUSIC FREE
AMAZON MUSIC FREE
A Inteligência Artificial tem sido um assunto bastante falado em toda a internet. A ferramenta que é usada para coletar informações gerais que os humanos depositam na internet está sendo extremamente utilizada em diversas áreas da nossa vida. Recentemente a criação de coisas diversas é a mais comum entre elas, como a criação de imagens, textos, vídeos e muito mais. Mas o que será que acontecerá com a Inteligência Artificial em 2023? Muitas discussões que vão de cópias de artistas a inovação tecnológica envolvem esse tópico, e deve ser algo nessa ideia que devemos ver no ano que vem.

Com o sucesso da Lensa, o aplicativo de selfie com inteligência artificial do Prisma Labs que se tornou viral, você pode esperar muitos aplicativos também nesse sentido. E espere que eles também sejam capazes de serem enganados para criar imagens NSFW — imagens inapropriadas para o trabalho, geralmente relacionada à conteúdo de nudez — e sexualizar desproporcionalmente e alterar a aparência das mulheres, uma tentativa de minimizar possíveis utilizações inadequadas da ferramenta, mais do que já acontece.

Maximilian Gahntz, um pesquisador sênior de políticas da Mozilla Foundation, disse esperar que a integração da IA ​​que cria coisas na tecnologia de consumo amplie os efeitos de desses sistemas de “defesa”, tanto os bons quanto os ruins. A Stable Diffusion, por exemplo, foi alimentada com bilhões de imagens da internet até “aprender” a associar certas palavras e conceitos com certas imagens. Os modelos de geração de texto têm sido facilmente manipulados para evitar que produzam conteúdo que defenda visões ofensivas ou produza fake news.

Mike Cook, membro do grupo de pesquisa aberta Knives and Paintbrushes, concorda com Gahntz quando diz que a inteligência artificial criadora continuará a se mostrar uma grande — e infelizmente, proporcionalmente problemática — força de mudança. Mas ele acha que 2023 deve ser o ano em que a inteligência artificial que cria coisas “finalmente fará jus com dinheiro envolvido”.

Não é suficiente motivar uma comunidade de especialistas [para criar nova tecnologia] – para que a tecnologia se torne uma parte de nossas vidas a longo prazo, ela deve gerar muito dinheiro para alguém ou ter um impacto significativo na vida cotidiana do público em geral. Portanto, prevejo que veremos um esforço sério para fazer com que a IA generativa realmente alcance uma dessas duas coisas, com sucesso misto.

O DeviantArt lançou um gerador de arte de IA construído em Stable Diffusion e ajustado com as artes publicadas pelos próprios usuários da plataforma. O gerador de arte foi recebido com forte desaprovação de antigos usuários do DeviantArt, que criticaram a falta de transparência da plataforma no uso de sua arte carregada para treinar o sistema.

Os criadores dos sistemas mais populares — OpenAI e Stability AI — dizem que tomaram medidas para limitar a quantidade de conteúdo prejudicial que seus sistemas produzem. Mas, a julgar por muitas das gerações nas mídias sociais, fica claro que há trabalho a ser feito — e muito, diga se de passagem.

Maximilian Gahntz, compara o processo de criação de arte via inteligência artificial às controvérsias em andamento sobre moderação de conteúdo nas mídias sociais. O pesquisador afirma que os conjuntos de dados exigem uma curadoria ativa para resolver esses problemas, inclusive de comunidades que tendem a consumir apenas uma pequena parcela destes conteúdos.

A Stability AI, que financia amplamente o desenvolvimento do Stable Diffusion, recentemente cedeu à pressão do público sinalizando que permitiria aos artistas optar por não participar do conjunto de dados usado para treinar o modelo Stable Diffusion na próxima geração. Por meio de um site os detentores dos direitos de suas artes poderão solicitar cancelamentos antes do início do treinamento que será aplicado às ferramentas.

Já o OpenAI não oferece esse mecanismo de exclusão, preferindo fazer parceria com organizações como a Shutterstock para licenciar partes de suas galerias de imagens. Mas, considerando os caminhos contrários legais e de publicidade que enfrenta ao lado da Stability AI, provavelmente é apenas uma questão de tempo até que siga o exemplo da sua irmã de mercado.

E no sentido legal da coisa, também é possível ver certa movimentação. Nos EUA, a Microsoft, GitHub e — olha ela aqui de novo — a OpenAI estão sendo processados ​​em uma ação coletiva que os acusa de violar a lei de direitos autorais ao permitir que o Copilot, serviço do GitHub que sugere linhas de código de forma inteligente, forneça de alguma maneira — paga, gratuita ou por qualquer meio — seções de código licenciado sem fornecer os devidos créditos.

Talvez para evitar mais complicações legais, o GitHub adicionou recentemente configurações para impedir que o código público apareça nas sugestões do Copilot, além de planejar a introdução de um recurso que fará referência à fonte das sugestões de código. Mas são medidas que ainda não foram testadas a sério para irem ao ar.

2022 viu um bocado de empresas de inteligência artificial dominarem o palco, principalmente OpenAI e Stability AI. Mas as coisas podem acabar voltando ao código aberto em 2023, à medida que a capacidade de construir novos sistemas forem além de “laboratórios de IA poderosos e ricos em recursos“, como disse Maximilian Gahntz.

Uma abordagem comunitária pode levar a um maior escrutínio dos sistemas à medida que estão sendo construídos e implantados. Gahntz prossegue ao afirmar que se os modelos forem abertos e se os conjuntos de dados também forem abertos, isso irá permitir muito mais pesquisas críticas que apontaram para muitas das falhas e danos ligados à criação por inteligência artificial, e isso costuma ser muito difícil de conduzir.

Exemplos de esforços focados na comunidade incluem grandes modelos de linguagem da EleutherAI e da BigScience, um trabalho que é apoiado pela startup de inteligência artificial Hugging Face. A Stability AI está financiando várias comunidades, como Harmonai e OpenBioML, focada na geração de música, além de ser uma coleção livre de experimentos biotecnológicos.

Dinheiro e experiência ainda são necessários para treinar e executar modelos sofisticados de inteligência artificial, mas a computação descentralizada pode desafiar os servidores que concentram a informação de maneira mais tradicional à medida que os esforços de código aberto se tornam cada vez mis maduros.

A BigScience deu um passo à frente ao permitir o desenvolvimento descentralizado com o recente lançamento do projeto de código aberto Petals. O Petals permite que as pessoas contribuam com seu poder de computação para executar grandes modelos de linguagem de inteligência artificial que normalmente requerem uma GPU ou servidor com uma qualidade mais elevada que o de costume.

Modelos generativos modernos são computacionalmente caros para treinar e executar. Algumas estimativas aproximadas colocam os gastos diários do ChatGPT em cerca de US$ 3 milhões. Para tornar isso comercialmente viável e acessível de forma mais ampla, será importante abordar isso.

Chandra Bhagavatula ressalta, no entanto, que grandes laboratórios continuarão a ter vantagens competitivas, desde que os métodos e dados permaneçam proprietários. Em um exemplo recente, a OpenAI lançou o Point E, um modelo que pode gerar objetos 3D a partir de um prompt de texto. Porém, mesmo a OpenAI tendo aberto o código do modelo, ela não divulgou as fontes dos dados de treinamento do Point E nem liberou esses dados.

Acho que os esforços de código aberto e os esforços de descentralização valem a pena e beneficiam um número maior de pesquisadores, profissionais e usuários. No entanto, apesar de serem de código aberto, os melhores modelos ainda são inacessíveis para um grande número de pesquisadores e profissionais devido a suas restrições de recursos.

Regulamentações como a Lei de Inteligência Artificial da União Europeia podem mudar a forma como as empresas desenvolvem e implantam sistemas de IA no futuro. Assim mais esforços locais, como o estatuto de contratação de IA da cidade de Nova York, que exige que a tecnologia baseada em algoritmos e IA para recrutamento, contratação ou promoção seja auditada antes de ser usada de fato.

Chandra Bhagavatula vê esses regulamentos como necessários, especialmente à luz das falhas técnicas cada vez mais aparentes da tecnologia de inteligência artificial criadora, como sua tendência de divulgar informações potencialmente erradas.

Isso torna a IA generativa difícil de aplicar em muitas áreas onde erros podem ter custos muito altos – por exemplo, cuidados de saúde. Além disso, a facilidade de gerar informações incorretas cria desafios em relação à desinformação e desinformação. E ainda os sistemas de IA já estão tomando decisões carregadas de implicações morais e éticas.

No entanto, o próximo ano trará apenas a ameaça de regulamentação. Nesse sentido podemos esperar muito mais discussões sobre regras e processos judiciais antes que alguém seja multado ou acusado — e com razão. Mas as empresas ainda podem disputar posições nas categorias mais vantajosas das próximas leis, como as categorias de risco da Lei de Inteligência Artificial.

A regra, conforme escrita atualmente, divide os sistemas de Inteligência Artificial em uma das quatro categorias de risco, cada uma com diferentes requisitos e níveis. Os sistemas na categoria de risco mais alto, Inteligência Artificial de “alto risco” — por exemplo, algoritmos de pontuação de crédito, aplicativos de cirurgia robótica e outros com dados sensíveis –, precisam atender a certos padrões legais, éticos e técnicos antes de serem autorizados a entrar no mercado europeu.

A categoria de menor risco, Inteligência Artificial de “risco mínimo ou nenhum risco” — por exemplo, filtros de spam, videogames habilitados para IA e outros que não contenham dados tão sensíveis –, impõe apenas obrigações de transparência, como conscientizar os usuários de que estão interagindo com um sistema de Inteligência Artificial.

Os Keyes, candidato a PhD na Universidade de Washington, expressou preocupação de que as empresas busquem o nível de risco mais baixo para minimizar suas próprias responsabilidades e visibilidade para os reguladores. “Deixando de lado essa preocupação, essa questão sobre a regulamentação da Inteligência Artificial realmente é a coisa mais positiva que vejo sobre a mesa. Não vi muita coisa fora do Congresso“, diz Os.

Maximilian Gahntz argumenta que, mesmo que um sistema de Inteligência Artificial funcione bem o suficiente para a maioria das pessoas, mas seja profundamente prejudicial para outras pessoas, ainda resta muito trabalho pesado a se fazer antes que uma empresa o torne amplamente disponível de fato.

Não está claro se as empresas serão persuadidas por esse argumento no ano que vem — e quem sabe nos anos seguintes –, principalmente porque os investidores parecem ansiosos para colocar seu dinheiro além de qualquer Inteligência Artificial generativa promissora.

Em meio às controvérsias da Stable Diffusion, a Stability AI levantou US$ 101 milhões em uma avaliação de mais de US$ 1 bilhão de patrocinadores, incluindo alguns nomes conhecidos neste meio como Coatue e Lightspeed Venture Partners. Também foi informado que a OpenAI está avaliada em US$ 20 bilhões ao entrar em negociações avançadas para levantar mais fundos da Microsoft — lembrando que em 2019 a Microsoft investiu US$ 1 bilhão na OpenAI em 2019.

E você, como acha que a inteligência artificial vai se comportar no ano que vem? Conta pra gente nos comentários!

Artista usa IA para falar com sua criança interior.

Fonte TechCrunch.

Parabéns, agora verifique se você recebeu um e mail nosso em sua caixa de entrada (ou caixa de SPAM) e confirme a inscrição clicando no link.

O seu endereço de e mail não será publicado. Campos obrigatórios são marcados com

Comentário

Nome

E mail

Salvar meus dados neste navegador para a próxima vez que eu comentar.

 Sim, adicione me à sua lista de e mails.





Δdocument.getElementById( ak_js_1 ).setAttribute( value , ( new Date() ).getTime() );



Via Google News
<a href='https://shopee.com.br/search?keyword=Inteligência&utm_medium=affiliates&utm_source=an_18321270146' target='_blank'>Inteligência</a> artificial
Inteligência artificial
<a href='https://shopee.com.br/search?keyword=Inteligência&utm_medium=affiliates&utm_source=an_18321270146' target='_blank'>Inteligência</a> artificial (Como ler filosofia)
Inteligência artificial (Como ler filosofia)
<a href='https://shopee.com.br/search?keyword=Inteligência&utm_medium=affiliates&utm_source=an_18321270146' target='_blank'>Inteligência</a> <a href='https://shopee.com.br/search?keyword=Artificial&utm_medium=affiliates&utm_source=an_18321270146' target='_blank'>Artificial</a> - Uma Abordagem de Aprendizado de Máquina
Inteligência Artificial - Uma Abordagem de Aprendizado de Máquina
<a href='https://shopee.com.br/search?keyword=Inteligência&utm_medium=affiliates&utm_source=an_18321270146' target='_blank'>Inteligência</a> artificial
Inteligência artificial
<a href='https://shopee.com.br/search?keyword=Inteligência&utm_medium=affiliates&utm_source=an_18321270146' target='_blank'>Inteligência</a> <a href='https://shopee.com.br/search?keyword=Artificial&utm_medium=affiliates&utm_source=an_18321270146' target='_blank'>Artificial</a> - Do Zero ao Metaverso
Inteligência Artificial - Do Zero ao Metaverso