Os recifes de coral estão entre as formações vivas mais complexas e coloridas da natureza. Mas, como qualquer fotógrafo subaquático sabe, as fotos tiradas sem luzes artificiais geralmente saem sem graça e azuis. Mesmo a água rasa absorve e dispersa seletivamente a luz em diferentes comprimentos de onda, dificultando a visualização de algumas características e lavando as cores – especialmente os vermelhos e amarelos.
Esse efeito dificulta os cientistas de usarem um algoritmo de visão computacional e machine learning para identificar, contar e classificar espécies em imagens subaquáticas; eles precisam confiar em avaliações humanas – geralmente demoradas.
Mas um novo algoritmo chamado Sea-thru, desenvolvido pela engenheira e oceanógrafa Derya Akkaynak, remove a distorção visual causada pela água de uma imagem. Os efeitos podem ser de grande ajuda para biólogos que precisam ver cores verdadeiras sob a superfície. Akkaynak e o engenheiro Tali Treibitz, seu orientador de pós-doutorado na Universidade de Haifa em Israel, detalharam o processo em um artigo apresentado em junho na Conferência do IEEE Conference on Computer Vision and Pattern Recognition.
A análise de imagem do Sea-thru é um trabalho na física da absorção e dispersão da luz na atmosfera em comparação com a do oceano, onde as partículas com as quais a luz interage são muito maiores. Em seguida, o programa efetivamente reverte a distorção da imagem de pixel por pixel, restaurando cores perdidas.
O algoritmo difere de aplicativos como o Photoshop, com os quais os usuários podem melhorar artificialmente as imagens subaquáticas ao exibir uniformemente vermelhos ou amarelos. A imagem sempre vai trazer as cores verdadeiras, e não com foco de ficar bonito.
Obter cores verdadeiras pode nos ajudar a expandir o conhecido de todo o mar e acompanhar a saúde do nosso planetinha azul.