Pesquisadores da Universidade de Osaka, no Japão, utilizaram uma placa de vídeo da Nvidia para remover nuvens de imagens de satélite.

Utilizadas em inúmeras áreas desde a engenharia até a conservação ambiental, as imagens via satélite tem um grande ponto fraco: quando o clima está nublado, as nuvens precisam ser removidas das fotos de forma manual, em um processo extremamente trabalhoso, ou por machine learning, que se faz necessária uma grande quantidade de imagens como base.

Para tornar esse processo mais ágil, pesquisadores da Universidade de Osaka, no Japão, utilizaram algo chamado Rede Adversária Generativa em conjunto com uma placa de vídeo GeForce GTX 1060, da Nvidia. Uma Rede Adversária Generativa (conhecida pela sigla em inglês GAN) se trata de um tipo de machine learning onde duas redes neurais competem uma contra a outra em um jogo que gera dados o suficiente para fazer com que as redes aprendam com mais facilidade.

No caso do GAN utilizada pelos pesquisadores, o primeiro algoritmo reconstrói imagens sem a presença de nuvens, e o segundo compara essas imagens com fotografias reais, entrando em uma competição automática e resultando imagens extremamente realistas sem as nuvens e sem a necessidade de uma grande quantidade de dados.

Kazunosuke Ikeno, um dos pesquisadores responsáveis pelo projeto, explica que “ao treinar a GAN a ‘enganar’ a rede a pensar que uma imagem é real, nós conseguimos imagens reconstruídas que são muito mais consistentes.”

Os algoritmos utilizados foram treinados em um PC equipado com uma GeForce GTX 1060 com um sistema Ubuntu. A ideia é que, no futuro, os pesquisadores sejam capazes de usar essa técnica para detectar outros objetos como estradas e rios a partir de imagens aéreas.

Nvidia imagens de satélite
Exemplo de imagem gerada via machine learning.

Veja também: