As classificações de filmes podem determinar o seu apelo para os consumidores e também o tamanho de seu público potencial. Algo muito importante para o impacto do filme e os seus resultados financeiros. Normalmente, simples humanos realizam a tarefa tediosa de classificar manualmente qual o público de um filme, com base na presença de violência, abuso de drogas e conteúdo sexual.
Agora, pesquisadores da Escola de Engenharia USC Viterbi, com a ajuda de ferramentas de inteligência artificial, podem classificar o conteúdo de um filme em questão de segundos, com base no roteiro do filme e até mesmo antes que uma única cena seja filmada. Tal abordagem pode permitir que os executivos do cinema tenham capacidade de projetarem uma classificação de filme com antecedência e realizarem as edições apropriadas de um roteiro, antes da filmagem de qualquer cena.
Além do impacto financeiro, esse feedback instantâneo permitiria que os contadores de histórias e tomadores de decisão, refletissem sobre o conteúdo que estão criando para um determinado público e o impacto que o material pode ter sobre esses espectadores. Usando inteligência artificial aplicada a scripts, Shrikanth Narayanan, professor universitário e Niki & CL Max Nikias presidente de Engenharia, junto com uma equipe de pesquisadores do Laboratório de Análise e Interpretação de Sinais (SAIL) do USC Viterbi, demonstraram que detalhes linguísticos podem sinalizar comportamentos de maneira eficaz sobre atos violentos, abuso de drogas e conteúdo sexual, ações que muitas vezes são a base para as avaliações de um filme e que estão prestes a serem realizadas pelos personagens.
Utilizando 992 roteiros de filmes que incluíam conteúdo violento, abuso de substâncias ilícitas e atividade sexual, conforme determinado pela Common Sense Media, uma organização sem fins lucrativos que avalia e faz recomendações para famílias e escolas, a equipe de pesquisa do SAIL treinou uma inteligência artificial para reconhecer os comportamentos de risco correspondentes e os padrões de linguagem. A ferramenta de IA criada recebe como entrada todo o script do filme ou série, processa-o por meio de uma rede neural e analisa a semântica e o sentimento expresso. No processo, ele classifica sentenças e frases como positivas, negativas, agressivas e outros detalhes.
A ferramenta de IA classifica automaticamente palavras e frases em três categorias: violência, uso de drogas e conteúdo sexual. Victor Martinez, doutorando em ciência da computação na USC Viterbi e pesquisador-chefe do estudo, disse: “Nosso modelo olha para o roteiro do filme, e não para as cenas reais, incluindo, por exemplo, sons como um tiro ou explosão que ocorrem posteriormente na produção. Isso é uma vantagem pois pode fornecer uma classificação muito antes da produção ser realizada e ajudar os cineastas a decidirem, por exemplo, o grau de violência do filme e se ela precisa ser atenuada.”
A equipe de pesquisa também inclui Narayanan, professor de engenharia elétrica e da computação, ciência da computação e linguística, Krishna Somandepalli, um Ph.D. candidato em Engenharia Elétrica e de Computação pela USC Viterbi e a professora Yalda T. Uhls do Departamento de Psicologia da UCLA.
Eles descobriram muitas conexões interessantes entre as representações de comportamentos de risco. “Intencionalmente ou não, os cineastas parecem combinar o nível de conteúdo relacionado ao abuso de substâncias com o conteúdo sexualmente explícito.” disse Martinez. Outro padrão interessante também surgiu. “Descobrimos que os cineastas compensam os baixos níveis de violência com retratos conjuntos de abuso de substâncias e conteúdo sexual”. Além disso, embora muitos filmes contenham representações do uso excessivo de drogas e conteúdo sexual, os pesquisadores descobriram que é altamente improvável que ele tenha altos níveis de todos os três comportamentos de risco, talvez devido aos padrões impostos pela Motion Picture Association (MPA).
“Não estamos apenas interessados na perspectiva dos contadores de histórias e das narrativas que eles tecem”, disse Narayanan, “mas também em compreender o impacto sobre o público e o resultado de toda essa experiência.”
Ferramentas como essas ajudarão a aumentar a consciência socialmente significativa, por exemplo, por meio da identificação de estereótipos negativos. “Martinez acrescentou: “No futuro, estou interessado em estudar as minorias e como elas são representadas, principalmente em casos de violência, sexo e drogas”.
Essa IA pode facilitar a classificação de filmes, mas precisamos levar em consideração quem vai alimentar esse programa. Não podemos esquecer que a Classificação Etária não é uma ciência exata e as vezes exageram ou falham na avaliação. Como explicar que o Filme Seven tenha classificação 14+ e Kill Bill seja liberado para maiores de 18 anos?
Com certeza a IA vai ter que encontrar um equilíbrio nesse processo de Classificação Etária de Filmes e Séries e isso vai depender muito de como o algoritmo será treinado para aprender.