Não temos mais dúvidas de que a IA pode fazer música, talvez até boa música, dependendo da sua definição de “boa”. Uma série de estudos recentes mostra que os humanos acham cada vez mais difícil distinguir entre música criada por humanos e por IA. Uma colaboração entre pesquisadores da UC Berkeley e OpenAI revelou que os humanos não podiam dizer a diferença entre música pop gerada por IA e por humanos.
Resultados semelhantes para o gênero jazz foram encontrados na Universidade de Amsterdã e para o gênero música clássica por pesquisadores da Sony em seu laboratório de pesquisa CSL. E para uma mudança de ritmo, os dois violinos do YouTube – uma talentosa dupla de violinos – elevaram o conceito de IA/música humana a alta comédia em uma postagem recente no YouTube.
LEIA MAIS: Exclusivo: Bill Gates fala sobre ChatGPT e o hype da IA
A OpenAI lançou uma arquitetura de rede neural para gerar música chamada Jukebox em 2020, que agora parece história antiga. Em janeiro passado, o Google Research anunciou o MusicLM com esta descrição seca: “Um modelo que gera música de alta fidelidade a partir de descrições de texto… O MusicLM lança o processo de geração de música condicional como uma tarefa de modelagem hierárquica de sequência a sequência…”
O que é particularmente interessante no MusicLM é que ele gera música com base em legendas de texto e outras entradas semelhantes. Por exemplo, a música pode ser gerada a partir de descrições em rich text de uma pintura famosa, como O Beijo de Klimt ou Guernica de Picasso. A música também pode ser produzida a partir de especificações de texto de um local, gênero ou época (alguém tem house music alemã dos anos 80?). Pode até se inspirar em melodias assobiadas.
A música gerada por IA está conosco para sempre, ao que parece e está se tornando popular como música para fundos de mídia, publicidade, filmes industriais – em suma, música comercial. De certa forma, isso se encaixa na noção alemã de Gebrauchsmusik ou “música utilitária”, música feita não para seu próprio bem, mas para algum propósito específico e identificável, como um evento ou promoção de vendas.
LEIA MAIS: A Inteligência Artificial será capaz de extinguir espécies?
A capacidade crescente da IA de gerar música certamente fornecerá novas maneiras de tornar um compositor talentoso mais eficiente, por exemplo, ou criar música global que seja culturalmente ressonante com base na análise de gostos baseada em aprendizado de máquina. Acredito que a música IA também terá um grande futuro na personalização de música para o bem-estar individual – aumentando a produtividade, o foco e o relaxamento, para não falar de seu valor potencial para amplificar musicoterapia no tratamento de ansiedade e TOC.
Mas, mesmo assim, digo alto E ASSIM? Um obscuro conto de ficção científica, Virtuoso, fornece minha explicação. O jornalista Herbert Gold escreveu sua única história de ficção científica em 1953. (Gostaria que ele tivesse escrito muito mais). Trata-se de um famoso pianista cujo robô um dia pergunta se ele pode aprender os rudimentos da música. Naquela noite, o pianista fica chocado ao descobrir que o robô, chamado Rollo, ingeriu não apenas os fundamentos da música, mas também um nível de musicalidade suficiente para executar a sonata Appassionata de Beethovan em um nível que traz lágrimas aos olhos do Maestro.
Rollo comenta que “não foi difícil”, mas conclui que nunca mais deve tocar piano, afirmando com uma percepção incomum que “para mim sim, posso traduzir as notas em sons à primeira vista. De apenas alguns eu sou capaz de compreender de uma só vez a concepção do compositor. É fácil para mim. Também posso entender que essa música não é para robôs, é para homem. Para mim é fácil, sim… Não era para ser fácil.”
Esse é exatamente o ponto. Compor/executar música é inerentemente difícil para os humanos. Como membros do público, nos envolvemos com uma performance por causa de sua dificuldade e do drama da falibilidade humana. Como Moliere disse uma vez: “Quanto maior o obstáculo, mais glória em superá-lo”. É por isso que reverenciamos as performances do falecido Artur Rubenstein, que interpretou Chopin com brio – e erros. Os japoneses têm um termo para isso – wabi sabi – que sugere que a imperfeição faz parte da beleza que somos capazes de vivenciar. A qualidade temporária e única de cada performance é o que apreciamos, sua transitoriedade em oposição a uma perfeição mecânica, repetível e rotineira.
LEIA MAIS: OpenAI vai deixar usuários personalizarem ChatGPT
A música feita por humanos reflete a capacidade de sentir de um intérprete, bem como a habilidade que ele traz para executar uma partitura complexa para piano – um concerto para piano de Rachmaninoff, por exemplo – de memória, sem erros e com expressão total. É sobre o toque humano. Recentemente, testemunhei o pianista norueguês Leif Ove Andsnes executar uma suíte para piano de Dvorak com tanta concentração que seus dedos permaneceram nas teclas por 30 segundos completos enquanto as notas finais morriam.
Essas apresentações musicais vêm do fundo das emoções do artista e de sua necessidade de expressar um estado interior, de satisfazer uma necessidade. Nunca esquecerei a postagem no Instagram de um garoto em Kiev que continuou a tocar “Time” de Hans Zimmer em uma praça pública de Kiev enquanto as sirenes de ataque aéreo soavam ao seu redor.
O que nos traz de volta à questão da relação entre humanos e IA. Uma questão-chave cuja resposta está no futuro é esta – como o espaço comercial para a experiência humana está mudando? A resposta em termos musicais parece bastante direta. Aqui está um experimento gedanken . Você gostaria de ir a um show do U2 (Keith Jarrett, Vikinger Olafsson), se a música fosse executada por uma persona de IA e transmitida por um banco de computadores e alto-falantes? Não! Queremos o desempenho humano em todas as suas falibilidades e emoções. Queremos sentir o toque humano. É por isso que lamentamos a morte de um grande músico, mas não a exclusão de um programa de computador ou o desligamento de um computador.
Aqui está outro experimento gedanken . Que significado pode uma IA – pelo menos para os padrões tecnológicos atuais – extrair de uma performance, seja de um humano ou de uma IA. Analisar, sim, mas se emocionar? Inspirado?
A música é uma das melhores coisas que temos como seres humanos, tanto como artistas quanto como ouvintes. E é um milagre – uma corda dedilhada cria vibrações no ar que exibem a matemática pitagórica e acabam afetando as membranas cocleares em nossos ouvidos que são curvadas da maneira certa para gerar impulsos elétricos em nosso córtex auditivo para que possamos ouvir harmonia em vez de ruído aleatório. Este milagre da música foi descrito como nada menos que um alimento para a alma; Nietzsche destacou sua importância ao observar que, “Sem música, a vida seria um acidente”.
Hoje em dia, a música e outras formas de arte têm muito a nos dizer sobre ser humano na era da IA – uma lição com particular urgência nos dias de hoje, à medida que a onda da inovação continua a aumentar. Napoleão uma vez comentou: “A música é o que nos diz que a raça humana é maior do que imaginamos”. A música que é criada e possuída por humanos sempre será diferente do ciclo contínuo de algoritmos de IA, não importa o quão musicais eles possam ser.
Texto original publicado pela Forbes USA. Traduzido por Andressa Barbosa.
O post Inteligência Artificial pode fazer música – e daí? apareceu primeiro em Forbes Brasil.