Resumo: Os drones tem se tornado uma importante ferramenta tecnológica para auxiliar no combate aos focos de mosquitos. No entanto, as imagens adquiridas por eles sao usualmente analisadas de forma manual, podendo consumir muito tempo nas atividades de inspeçao. Neste trabalho é proposto um sistema de visao computacional (SVC) para identificaçâo e geolocalizaçâo automática de potenciáis criadouros do mosquito Aedes aegypti a partir de imagens aéreas adquiridas por drones. O SVC desenvolvido deu origem a um software, cujo núcleo é composto por uma rede neural convolucional (RNC) que apresentou taxas de acerto e mAP-50 (mean average precision) de 0,9294 e 0,9362 nos experimentos realizados com uma base composta por 500 imagens. Esses resultados, comparados com resultados recentes da literatura, corroboram a adequaçao da RNC para compor o SVC, o qual pode trazer melhorias para a utilizaçâo de drones em programas de prevençâo e combate de fontes de reproduçao de mosquitos.
Palavras-chave: Drone; Mosquito; Reconhecimento de Padroes; Visao Computacional; Redes Neurais Convolucionais.
Abstract: Drones have become an important technological tool to help fight mosquito breeding sites. However, the images acquired by them are usually analyzed manually, which can consume a lot of time in inspection activities. In this work, a computer vision system (SVC) is proposed for the automatic identification and geolocation of potential breeding sites of the Aedes aegypti mosquito from aerial images acquired by drones. The developed SVC gave rise to a software, whose core is composed of a convolutional neural network (CNN) that presented rates of recall and mAP-50 (mean average precision) of 0.9294 and 0.9362 in the experiments conducted with a database composed by 500 images. These results, compared with recent results from the literature, corroborate the adequacy of the CNN to compose the SVC, which can bring improvements to the use of drones in programs of prevention and combating mosquito breeding sources.
Keywords: Drone; Mosquito; Pattern Recognition; Computer Vision; Convolutional Neural Networks.
1.Introduçao
As doenças causadas pelo mosquito Aedes aegypti, como dengue, chikungunya e zika, vem preocupando as autoridades da Organizaçâo Mundial da Saúde - OMS, segundo a qual, o número de casos notificados de dengue aumentou rapidamente nas últimas décadas (OMS, 2017). Nas Américas, mais de 1,6 milhāo de casos foram notificados apenas nos primeiros cinco meses de 2020, a maioria deles no Brasil (OPAS, 2020). Segundo o Ministério da Saúde do Brasil (MSB), em 2020, até novembro, foram registrados 971.136 casos de dengue, 78.808 casos prováveis de chikungunya e 7.006 casos prováveis zika. Ao todo, 528 pessoas morreram de dengue no Brasil em 2020 (MSB, 2020).
Atualmente a OMS considera o controle e eliminaçao de potenciais criadouros de mosquitos uma medida preventiva imprescindível para enfrentar as doenças causadas por eles (MS, 2020). Porém, as autoridades de saúde muitas vezes veem este desafio ampliado, especialmente em áreas onde uma parte considerável da populaçâo nāo tem acesso a estruturas habitacionais adequadas nem a serviços básicos bem geridos, como água, saneamento e eliminaçâo de residuos sólidos, que sāo fatores determinantes para o risco de doenças transmitidas por mosquitos (OMS, 2017; MSB, 2020).
O MSB, com objetivo de combater o mosquito Aedes aegypti, lança campanhas publicitárias que envolvem gestores estaduais, municipais e a populaçâo. No ano de 2019 o governo federal gastou cerca de R$22 milhoes com campanhas publicitárias de combate ao mosquito Aedes aegypti. Em adiçao, um levantamento feito por uma consultoria de pesquisa estimou que o prejuízo na economia brasileira devido a transmissāo de dengue, chikungunya e zika, somente em 2016, ano em que o Brasil teve quase 2 milhoes de casos de doenças relacionadas ao Aedes aegypti, atingiu R$2,3 bilhoes incluindo custos diretos e indiretos (Dantas, 2021).
As atividades de fiscalizaçâo e combate aos potenciais criadouros do mosquito no Brasil é realizada por agentes de saúde, a partir da identificaçâo visual de situaçoes de risco, caracterizadas pela existencia de objetos e cenários suspeitos (BRASIL, 2009). Tais atividades normalmente sao caras, demoradas, perigosas, além de serem temporal e espacialmente limitadas, resultando na falta de contabilizaçâo de grandes porçoes do espaço urbano (Grubesic et al., 2018). Além disso, é comum os agentes de saúde encontrarem impedimentos para o desempenho de suas atividades, como imóveis fechados, abandonados ou com acesso nāo permitido pelo proprietário, que afetam as açoes de combate a proliferaçâo do mosquito (BRASIL, 2009).
Assim, o combate ao mosquito Aedes aegypti tem demandado inúmeros outros esforços, pois nem sempre as atividades de fiscalizaçâo e as campanhas de informaçâo e mobilizaçâo das pessoas sāo conduzidos de forma adequada. Neste sentido vários estudos vem sendo feitos para agilizar a busca de possíveis focos do mosquito, principamente em regioes com maior incidencia de doenças, com o uso de veículos aéreos nao tripulados - VANTs, popularmente conhecidos como drones (Passos et al., 2018; Diniz e Medeiros, 2018; Carrasco-Escobar et al., 2019).
Os drones possibilitam voos mais próximos ao solo obtendo imagens com altas resoluçoes espaciáis e temporais, permitindo a detecçao de pequeños objetos na superficie da terra e a percepçao de mudanças em uma determinada região, em um curto espaço de tempo (Saura et al., .2019; Ponce-Corona et al., 2020; Vintimilla et al., 2020). Além disso, os drones facilitam a inspeçao de locais de difícil acesso e requerem menos recursos humanos e financeiros do que as aeronaves tripuladas. Tais vantagens tornam os drones um instrumento poderoso para apoiar intervençoes direcionadas a eliminaçao de criadouros de mosquitos, e assim prevenir doenças como dengue, chikungunya, zika e malária. No entanto, atualmente ainda sao poucos os estudos propondo o uso de drones para identificar potenciais criadouros de mosquitos a partir da análise automática de imagens, sendo os principais apresentados na seçao a seguir, na qual também estao identificados os principais desafios de pesquisa.
1.1.Trabalho Correlatos e Desafios de Pesquisa
Na literatura há estudos que, embora relacionados a temática aqui investigada, nao podem ser diretamente comparados com o presente trabalho. Entre eles, podemos citar: Carrasco-Escobar et al. (2019), Haas-Stapleton et al. (2019), Minakshi et al. (2020), Stanton et al. (2020) e Suduwella et al. (2020), que investigaram a identificaçao de criadouros de mosquitos com base na análise das características de corpos d'água imageados por drones.
Entre os estudos que se assemelham ao presente trabalho, tanto no que tange aos objetos e cenários considerados quanto aos métodos computacionais propostos para a tarefa de identificaçao automática dos focos estao: Agarwal et al. (2014), Mehra et al. (2016), Dias et al. (2018), Passos et al. (2020), Rossi, Backes e Souza (2020) e Bravo et al. (2021).
Agarwal et al. (2014) apresentaram um método para detectar e visualizar possíveis criadouros de mosquitos, que emprega a técnica Bag of Visual Words (BoVW) combinada com o classificador Support Vector Machine (SVM) para classificaçao de imagens. Em experimentos envolvendo a classificaçao de 500 imagens, eles obtiveram uma acurácia em torno de 82%. Em Mehra et al. (2016), um framework foi proposto para detectar possíveis criadouros de mosquitos em imagens do Google e de vários outros dispositivos (cameras digitais, smartphones e drones). Para a extraçao das características foi utilizada a técnica BoVW, sendo a classificaçao realizada por Redes Bayesianas. Nos experimentos conduzidos, os autores obtiveram uma precisao de 90%. Nesses dois trabalhos, as abordagens propostas analisam uma imagem e indicam se ela contém ou nao um cenário suspeito, sem fornecer a sua localizaçao na imagem.
Passos et al. (2020) exploraram a detecçao de criadouros do mosquito Aedes aegypti a partir de vídeos aéreos adquiridos por drones em ambientes simulados. Contudo, em seus experimentos usando diferentes modelos de redes neurais convolucionais (RNC) eles obtiveram uma acurácia máxima de 78%. Embora os autores tenham composto um banco de vídeos para realizaçao dos experimentos, infelizmente ele nao foi disponibilizado na literatura.
Dias et al. (2018) propuseram um sistema inteligente para reconhecer e geolocalizar cenários suspeitos de serem criadouros do mosquito Aedes aegypti a partir de vídeos capturados por drones. Eles também consideraram a detecçao de porçoes d'água nas imagens. Segundo os autores, nos testes realizados foi alcançada uma acurácia geral acima de 99%. Contudo, assim como nos trabalhos de Agarwal et al. (2014) e Mehra et. al (2016), apenas um par de coordenadas (latitude e longitude) é associado a cada imagem, independentemente do número de objetos e/ou cenários detectados, dificultando a localizaçâo precisa dos mesmos. Em adiçâo, a explicaçâo dos experimentos sobre a detecçâo de porçoes d'água nāo possibilita saber se o algoritmo proposto é capaz de identificar a existencia de água em objetos pequenos, que pode ser importante para melhor caracterizaçâo da suspeiçâo do mesmo.
Rossi, Backes e Souza (2020) propuseram uma abordagem computacional para detecçâo automática de calhas a partir de imagens adquiridas por drones, para identificaçâo de criadouros do mosquito Aedes aegypti. Além de considerar apenas calhas, desprezando outros objetos e cenários que representam potenciais criadouros, os autores nāo apresentaram dados quantitativos mensurando os resultados obtidos, bem como nao disponibilizaram o banco de imagens coletadas.
Bravo et al. (2021) propuseram abordagens baseadas nas técnicas BoVW e RNC para detecçâo e localizaçâo automática de objetos e cenários suspeitos de serem criadouros do mosquito Aedes aegypti em imagens aéreas adquiridas por drones, as quais produziram as taxas de mAP-50 de 0,9651 e 0,9028 na detecçâo de objetos e cenários usando RNC, e de 0,6453 na detecçâo de cenários usando BoVW. No entanto, além dos autores terem empregado uma arquitetura específica de RNC para cada tipo de alvo (objetos/cenários), as abordagens propostas nāo resultaram em um software capaz de gerar mapas com indicaçoes georreferenciadas. Neste sentido, os autores sugerem o desenvolvimento de um software de fácil utilizaçâo construido a partir de uma arquitetura única de RNC para detecçâo de objetos e cenários suspeitos. Nāo obstante, eles alertam para necessidade do sistema computacional produzir indicaçoes georreferenciadas dos alvos detectados.
Fazendo uma análise dos trabalhos correlatos foram encontradas as seguintes limitaçoes: dificuldade de localizaçâo de objetos pequenos nas imagens em virtude da resoluçâo espacial; deficiencia na geolocalizaçâo dos alvos detectados; falta de um banco de imagens disponível na literatura a partir do qual se possa avaliar e comparar os métodos computacionais propostos; e, principalmente, a falta de um software que possa ser operado por agentes de saúde através de uma interface interativa e de fácil uso, para viabilizar a aplicabilidade prática dos métodos computacionais propostos. Tais limitaçoes constituem os desafios de pesquisa que foram considerados no desenvolvimento do SVC proposto neste trabalho, o qual deu origem a um software cujo núcleo é composto por uma rede neural convolucional (RNC) modelo YOLOv4.
2.Fundamentaçao Teórica
2.1.Visão Computacional
Visāo computacional (VC) pode ser definida como uma subárea do processamento de imagens que estuda o desenvolvimento de métodos e técnicas que possibilitam um sistema computacional interpretar conteúdo de imagens digitais. Em outras palavras, um sistema de visāo computacional (SVC) tem como objetivo dotar uma máquina com capacidade para descrever uma cena contida em uma imagem digital (Gonzalez e Woods, 2000).
De acordo Gonzalez e Woods (2000), um SVC típico executa os seguintes passos: i) Aquisiçao de imagens; ii) Pré-processamento - aplicaçâo de técnicas de VC para aprimorar a qualidade da imagem de entrada, corrigindo iluminaçao, contraste e distorçoes, por exemplo; iii) Segmentaçao - isolar os objetos de interesse do fundo da imagem; iv) Extraçao de características - extraçao de vetores de atributos (textura, cor, forma, etc) que caracterizam os objetos de interesse; v) Reconhecimento e interpretaçâo - definiçâo das classes dos objetos segmentados de acordo com suas características.
2.2. Redes neurais convolucionais
As Redes neurais convolucionais (RNC), inicialmente propostas por (Le Cun et al., 1998), podem ser descritas como variaçoes de uma rede neural perceptron multicamada, desenvolvida para exigir o menor pré-processamento possível. Isso ocorre porque a RNC tem a capacidade de extrair automaticamente recursos de padrees, uma tarefa que em um método tradicional de reconhecimento de padrees precisa necessariamente ser implementada separadamente, e que representa um dos principais problemas desses métodos (Le Cun et al., 1998). Essa capacidade da RNC é uma das principais vantagens para sua aplicaçâo em tarefas de análise de imagens (Le Cun et al., 1998; Albawi et al., 2017; Schirrmeister et al., 2017).
Basicamente, uma RNC consiste em tres conjuntos de camadas: camadas convolucionais, camadas de agrupamento e as camadas totalmente conectadas (Le Cun et al., 1998). As camadas convolucionais sâo responsáveis por extrair as características das imagens. Eles empregam filtros que desencadeiam pequenas regioes ao longo de toda a imagem. As camadas de agrupamento, que sâo colocadas entre as camadas de convoluçâo, realizam operaçoes de amostragem espacial usando filtros que sâo aplicados pela imagem. Eles produzem versoes de menor resoluçâo das camadas de convoluçâo e ajudam a tornar as representaçoes invariantes as traduçoes (Goodfellow et al, 2016). As camadas totalmente conectadas funcionam de forma semelhante a uma rede neural perceptron multicamadas e agem como um classificador. Eles recebem entrada da camada anterior e produzem um vetor ndimensional, onde n é o número de classes de saida. Assim, cada elemento vetorial é usado para indicar a probabilidade de que o padrão de entrada pertence a essa classe (Goodfellow et al., 2016; Schirrmeister et al.., 2017).
Há diversas arquiteturas de RNC, entre os quais está YOLO que tem sido amplamente utilizada na literatura para reconhecimento de objetos (Yi et al.., 2019; Benjdira et al., 2019; Xu et al., 2020), e que foi empregada para compor o SVC proposto neste trabalho.
2.3. YOLOv4
YOLO é um framework composto de RNCs especialmente projetadas para detecçao de objetos. O "YOLO - You Only Look Once", proposto por (Redmon et al., 2016), tem essa denominaçâo porque se refere ao fato de que a RNC "olha" a imagem apenas uma vez gerando as prediçoes das classes dos objetos detectados. Em 2020 foi lançado o YOLOv4, cuja arquitetura é capaz de reconhecer, em tempo real, 80 objetos diferentes em imagens e vídeos, como demonstrado nos experimentos de Bochkovskiy et al. (2020), os quais pontuam ainda que, apesar de YOLOv4 usar parte da implementaçao da versão anterior (YOLOv3), seu desempenho é significantemente mais rápido do que YOLOv3 na de detecçao de objetos.
De acordo com Bohush et al. (2021), YOLOv4 representa o estado da arte na detecçao de objetos, com uma das melhores taxas de precisão e velocidade. A abordagem é baseada na RNC Darknet53 que usa conexoes Cross-Stage-Partial-connections (CSP), que consistem em pirámides para extraçao de características. Para atingir altas taxas de velocidade e precisão na detecçao, bem como a capacidade de usar o equipamento que estiver disponível para treinamento, YOLOv4 usa varios métodos para aumentar a eficiencia sem, no entanto, aumentar o custo computacional. Entre eles, podemos citar: o uso de algoritmos genéticos para otimizar a taxa de aprendizagem, diferentes métodos de aumento do conjunto de dados e Spatial Piramid Pooling (SPP). Este último aplica uma estratégia ligeiramente diferente na detecçao de objetos com escalas diferentes. Ele substitui a última camada de pooling (após a última camada convolucional) por uma camada de pooling da pirámide espacial, como mostrado na Figura 1.
Um bloco de conxäo densa de YOLOv4 contempla varias camadas de convoluçâo, sendo que cada uma delas produz quatro mapas de características. Ao invés de usar a saída da camada anterior apenas, cada uma das camadas leva em conta a saída de todas as camadas anteriores (Huang et al., 2020).
3.Materials e Métodos
3.1. Base de Imagens
Para a realizaçâo dos experimentos foi composta uma base contendo 500 imagens (vide Tabela 1) adquiridas em diferentes áreas da regiāo metropolitana do estado de Sāo Paulo (RMSP) - Brasil, as quais foram escolhidas por serem suscetíveis a proliferaçâo do mosquito Aedes aegypti. Segundo o Ministério da Saúde do Brasil (MSB), são mais suscetíveis os locais onde há crescimento urbano desordenado com maior número de imóveis ocupados, que possuem menor renda per capita, com maior proporçao de ruas sem pavimentaçâo, existencia de muitos depósitos de materiais de reciclagem e oficinas mecánicas, com maior quantidade de caixas d'agua parcialmente tampadas, lixos, garrafas, pneus e sucata a céu aberto. Além disso, tais regioes sao distantes de áreas sensíveis como aeroportos e presidios, como instrui a Agencia Nacional de Aviaçao Civil (ANAC), orgao responsável por regulamentar o registro e o uso de drones no Brasil.
As imagens do CONJ1 e CONJ2 contemplam diversos tipos de recipientes para armazenamento de agua para uso doméstico (caixas d'água) que podem estar cobertos ou descobertos e representam um dos principais criadouros do mosquito, enquanto as imagens do CONJ3 e CONJ4 contem cenários suspeitos reais e simulados, os quais sao caracterizados pela existencia de lixo inorgánico a céu aberto, compreendendo objetos pequenos que podem acumular água como pneus velhos, garrafas pet, embalagens plásticas e de papel, entre outros. Alguns exemplos das imagens dos quatro conjuntos sao ilustrados na Figura 2.
As imagens foram divididas em 2 partes: 70% para treinamento e 30% para avaliaçao da RNC empregada no SVC proposto. É valido ressaltar que, embora nao seja uma regra, essas porcentagens sao comuns na resoluçao problemas envolvendo métodos de aprendizagem de máquina e foram adotadas também no estudo de Bravo et al. (2021), o qual foi utilizado nas comparaçöes dos resultados obtidos no presente trabalho. Durante a pesquisa realizada constatou-se que uma das principais dificuldades, também relatada em outros trabalhos encontrados na literatura, como em Passos et al. (2018), foi a aquisiçao de imagens contemplando os objetos e cenários que representam potenciais criadouros do mosquito. Por isso, a base de imagens composta pode ser considerada uma importante contribuiçao, uma vez que poderá ser disponibilizada, mediante solicitaçao, para outros pesquisadores avaliarem seus métodos.
3.2. Configuraçao e Treinamento de YOLOv4
Para treinamento e testes de classificaçao da RNC YOLOv4, desenvolvida em linguagem Python e denominada RNC_Obj+Cen, foram utilizadas 168 imagens de objetos e 182 imagens de cenários, totalizando 350 imagens, enquanto as outras 150 imagens foram usadas para testes de classificaçao. Vale mencionar que durante a fase de treinamento é realizado o aumento de dados usando mecanismos automáticos providos pelo framework YOLOv4.
A RNC_Obj+Cen foi configurada com os seguintes parámetros: quantidade classes = 2, batches = 124, subdivisÐes = 16, taxa de aprendizagem = 0.001 e canais de cores considerados = 3 (RGB). Após 22 horas o treinamento foi finalizado com 1900 interaçÐes. Na Figura 3 é ilustrado o diagrama de funcionamento do método para mapeamento dos objetos e cenários usando RNC_Obj+Cen.
No diagrama detalhado na Figura 3a, que representa o treinamento da RNC, apenas as rotinas de rotulaçao dos objetos, que consiste em selecionar nas imagens as regiÐes contendo objetos/cenários de interesse, e configuraçao dos parámetros da RNC foram feitas de forma manual. Após isso, a RNC é responsável por todo o fluxo cujo passo final é salvar o arquivo com os pesos ajustados. Já a Figura 3b se refere aos testes de classificaçao com a RNC treinada. Para isso, o arquivo contendo os pesos é carregado e, em seguida, as imagens separadas para os testes sao submetidas a classificaçao. Ao final desse processo sao obtidas as métricas que indicam a qualidade da classificaçao para o conjunto de imagens de teste.
Para avaliar o desempenho da RNC foram consideradas as métricas taxas de acertó e mAP-50, as mesmas empregadas no trabalho de Bravo et al. (2021) considerado na análise comparativa, e que sao calculadas a partir das quantidades de Verdadeiro Positivo (VP), Falso Positivo (FP), Verdadeiro Negativo (VN) e Falso Negativo (FN) obtidos na classificaçao.
4.Resultados e Discussao
4.1. Reconhecimento de Objetos e Cenários com RNC_Obj+Cen
Para avaliar a precisao da rede RNC_Obj+Cen, as 150 imagens separadas para os testes foram submetidas a tarefa de classificaçao, que consumiu aproximadamente 13 minutos. Alguns resultados estao ilustrados na Figura 4.
Das 150 imagens, 78 sao de cenários contendo 185 criadouros de mosquito rotulados como ground truth por caixa delimitadoras, enquanto as outras 72 sao imagens de objetos que apresentam 354 alvos rotulados como ground truth. Após a classificaçao das imagens foi possível obter as taxas de acerto e mAP-50 de 0,9011 e 0,9240 para objetos e de 0,9837 e 0,9485 para cenários.
Das 354 caixas delimitadoras de objetos rotuladas como ground truth, 319 foram classificadas corretamente por RNC_Obj+Cen. Foram identificados 12 casos de FP e 35 casos de FN. Com relaçao aos cenários, das 185 caixas delimitadoras rotuladas como ground truth, 182 foram classificadas corretamente por RNC_Obj+Cen. Nos experimentos realizados nos testes nao houve casos de FP, entretanto houve 3 casos de FN. Figura 4 os casos de FP e FN estao indicados, respectivamente, por círculos vermelhos e círculos brancos.
Por fim, a Tabela 2 apresenta uma comparaçao dos resultados obtidos neste trabalho com aqueles apresentados em Bravo et. al. (2021), que empregaram duas diferentes arquiteturas oriundas do framework YOLOv3 para detecçao de objetos e cenários.
Como pode ser visto na Tabela 2, as taxas medias de acertó e mAP-50 obtidas por RNC_ Obj+Cen, que contempla a detecçâo de objetos e cenários pela uma mesma arquitetura YOLOv4, superaram as medias das taxas obtidas pelas duas RNCs isoladas desenvolvidas por Bravo et al. (2021), mesmo considerando que o número de objetos e cenários para serem detectados (ground truth) foi maior nos experimentos com YOLOV4 realizados neste trabalho. É importante destacar ainda que houve reduçâo significativa no número de casos de FP. Unificar a detecçao de objetos e cénanos em uma mesma RNC era uma premissa para viabilizar a implementaçao do SVC proposto, apresentado na seçao a seguir.
4.2.Sistema de Visão Computacional Desenvolvido
O sistema de visão computacional (SVC) deu origem a um software inteiramente desenvolvido em linguagem Python com uso das bibliotecas OpenCV1 (composta por rotinas e algoritmos de processamento de imagens e visao computacional), Folium2 (composta por algoritmos para visualizaçao de dados em mapas), além do framework YOLOv43. No desenvolvimento da interface do software, ilustrada na Figura 5, empregou-se a biblioteca TKinter4, a qual possui recursos que facilitam a criaçao de layouts responsivos. O software, cujo núcleo foi constituido por RNC_Obj+Cen, possui 5 itens no menu principal, sendo o primeiro (analisar imagens) responsável por identificar (detectar) os objetos e cenários suspeitos em uma ou mais imagens, como mostrado na Figura 5.
O item "galeria de imagens" permite visualizar os objetos e cenários detectados em uma ou mais imagens. Além disso, como mostrado na Figura 6, é possível visualizar a partir desse item informaçoes georreferenciadas sobre as imagens no Open Street Map5 (OSM).
O item de menu "Gerar mosaico" permite criar um mosaico das imagens adquiridas em um voo (junçao de duas ou mais imagens do local imageado). Esse módulo é importante porque permite gerar uma única imagem da área/regiao onde ocorreu a inspeçao, facilitando o processo de análise. Por fim, o item "Ajuda" permite visualizar uma descriçao detalhada de todas as funçoes oferecidas pelo software, enquanto o item "Sair" é utilizado para encerrar o software.
O software proposto neste trabalho, integrando uma única arquitetura de RNC para detecçao de objetos e cenários suspeitos (RNC_Obj+Cen), geraçao de mosaico de imagens e mapa com indicaçoes georreferenciadas contempla nao só as sugestoes de (Bravo et al., 2021), mas também de outros trabalhos da literatura, apresentados na seçao 1.1. Além do mais, ele poderá auxiliar agentes de saúde no combate ao Aedes aegypti, visto que foi projetado para identificar, por meio de uma interface de fácil uso, potenciais criadouros de mosquitos a partir de imagens adquiridas por drones. Obviamente, há ainda melhorias que precisam ser feitas para ampliar a sua aplicabilidade, entre as quais podemos citar: i) propiciar a geraçao de mosaicos de melhor qualidade (reduçao de distorçoes e efeitos de borda); ii) prover indicaçoes georreferenciadas de todos os alvos detectados em uma ou mais imagens; iii) retreinamento de RNC_Obj+Cen considerando imagens com mais tipos de objetos e cenários; iv) incorporaçao de um módulo para detecçao de água acumulada nos cenários e objetos.
5.Conclusoes e Trabalhos Futuros
Neste trabalho foi apresentado um SVC para identificaçao automática de potenciais criadouros do mosquito Aedes aegypti com o uso de drones. Para compor o núcelo do software desenvlvido uma RNC YOLOv4 (denominada RNC_Obj+Cen) foi configurada e avaliada a partir de uma base com 500 imagens, adquiridas em áreas urbanas da Regiao Metropolitana de Sao Paulo (RMSP). Os resultados obtidos nos testes de classificaçao foram: taxa de acerto = 0,9294 e mAP-50 = 0,9362. A investigaçao da literatura conduzida neste trabalho, somada aos resultados alcançados, permitiu evidenciar a importância do uso de drones para a inspeçao de áreas de risco de proliferaçao de criadouros de mosquitos, especialmente nas regioes periféricas dos grandes centros urbanos onde os serviços essenciais como coleta de lixo, infraestrutura e saneamento básico sao muitas vezes escassos ou mesmo inexistentes, visto que tal instrumento de sensoriamente remoto permite a inspeçao em áreas de difícil acesso, sem, contudo, colocar em risco a vida dos agentes de saúde responsáveis pelas inspeçoes de campo. Nao obstante, de uma perspectiva transdisciplinar, o uso de drones em tarefas mapeamento automático, como a explorada neste trabalho, poder apoiar a sensibilizaçao da comunidade incentivando sua participaçao em programas de reduçao das populaçoes de mosquitos por meio de planos de açao de baixo para cima. Em trabalhos futuros pretende-se desenvolver um método para identificaçao de água acumulada nos objetos e cenários visando aumentar a aplicabilidade do sofware desenvolvido, além de outras melhorias incluindo a geraçao de ortomosaicos e geolocalizaçao com maior precisao de todos os alvos detectados em uma imagem.
Agradecimentos
Os autores agradecem a FAPESP - Fundaçâo de Amparo a Pesquisa do Estado de Sāo Paulo pelo suporte financeiro (Processo n°. 2019/05748-0), e ao CNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico pela bolsa DT concedida a Sidnei Alves de Araújo (Processo n°. 313765/2019-7).
1 https://pypi.org/project/opencv-python/
2 http://python-visualization.github.io/folium/
3 https://github.com/AlexeyAB/darknet 4
4 https://docs.python.org/3/library/tkinter.html
5 https://www.openstreetmap.org/
Referencias
Agarwal, A., Chaudhuri, U., Chaudhuri, S., Seetharaman, G. (2014). Detection of potential mosquito breeding sites based on community sourced geotagged images. In: Geospatial InfoFusion and Video Analytics IV and Motion Imagery for ISR and Situational Awareness II, p. 90890M. https://doi.org/10.1117/12.2058121
Albawi, S., Mohammed, T. A., Al-Zawi, S. (2017). Understanding of a convolutional neural network. In: International Conference on Engineering and Technology (ICET). Ieeep. 1-6. https://doi.org/10.1109/ICEngTechnol.2017.8308186
Benjdira, B., Khursheed, T., Koubaa, A., Ammar, A., Ouni, K. (2019). Car Detection using Unmanned Aerial Vehicles: Comparison between Faster R-CNN and YOLOv3. In: Proceedings of the 1st International Conference on Unmanned Vehicle Systems (UVS), Muscat, Oman, 1-6. https://doi.org/10.1109/UVS.2019.8658300
Bochkovskiy, A., Wang, C-Y., Liao, H-Y. M. (2020). Yolov4: Optimal speed and accuracy of object detection. arXiv preprint.
Bohush, R., Ablameyko, S., Ihnatsyeva, S., & Adamovskiy, Y. (2021). Object Detection Algorithm for High Resolution Images Based on Convolutional Neural Network and Multiscale Processing. In CMIS (pp. 135-144).
Brasil - Ministério DA Saúde, Secretaria De Vigilância em Saúde, & Departamento de Vigilância Epidemiológica. (2009). Diretrizes nacionais para prevençâo e controle de epidemias de dengue. https://bvsms.saude.gov.br/bvs/publicacoes/diretrizes_ nacionais_prevencao_controle_dengue.pdf.
Bravo, D. T., Lima, G. A., Alves, W. A. L., Colombo, V. P., Djogbénou, L., Pamboukian, S. V. D., & De Araujo, S. A. (2021). Automatic detection of potential mosquito breeding sites from aerial images acquired by unmanned aerial vehicles. Computers, Environment and Urban Systems, 90, 101692. https://doi.org/10.1016/j. compenvurbsys.2021.101692
Carrasco-Escobar, G., Manrique, E., Ruiz-Cabrejos, J., Saavedra, M.; Alava, F., Bickersmith, S., & Gamboa, D. (2019). High-accuracy detection of malaria vector larval habitats using drone-based multispectral imagery. PLoS neglected tropical diseases, 13(1), e0007105. https://doi.org/10.1371/journal.pntd.0007105
Dantas, C. G. (2021).O portal de notícias da Globo: Consultoria estima que Brasil perdeu R$ 2,3 bilhoes em um ano com doenças do Aedes. https://g1.globo.com/bemestar/ aedes-aegypti/noticia/consultoria-estima-que-brasil-perdeu-r-23-bilhoes-em-umano-com-doencas-do-aedes.ghtml.
Dias, T. M., Alves, V. C., Alves, H. M., Pinheiro, L. F., Pontes, R. S. G., Araujo, G. M., & Prego, T. M. (2018). Autonomous detection of mosquito-breeding habitats using an unmanned aerial vehicle. American Robotic Symposium, 2018 Brazilian Symposium on Robotics (SBR) and 2018 Workshop on Robotics in Education (WRE) (pp. 351356). https://doi.org/ 10.1109/LARS/SBR/WRE.2018.00070
Diniz, M. T. M., Medeiros, J. B. (2018). Mapeamento de focos de reproduçao de Aedes aegypti na cidade de Caicó/RN com o auxilio de veículo aéreo nao tripulado. Revista GeoNordeste, 2, 196-207.
Gonzalez, R. C., Woods, R. E. (2000). Processamento de imagens digitais. Edgard Blucher.
Goodfellow, I., Bengio, Y., Courville, A. (2016). Convolutional networks, in Deep Learning. MIT Press. http://www.deeplearningbook.org.
Grubesic, T. H., Wallace, D., Chamberlain, A. W., & Nelson, J. R. (2018). Using unmanned aerial systems (UAS) for remotely sensing physical disorder in neighborhoods. Landscape and Urban Planning, 169, 148-159. https://doi.org/10.1016/j. landurbplan.2017.09.001
Haas-Stapleton, E. J., Barretto, M. C., Castillo, E. B., Clausnitzer, R. J., & Ferdan, R. L. (2019). Assessing Mosquito Breeding Sites and Abundance Using An Unmanned Aircraft. Journal of the American Mosquito Control Association, 35(3), 228-232. https://doi.org/10.2987/19-6835.!
Huang, Z., Wang, J., Fu, X., Yu, T., Guo, Y., & Wang, R. (2020). DC-SPP-YOLO: Dense connection and spatial pyramid pooling based YOLO for object detection. Information Sciences, 522, 241-258. https://doi.org/10.1016/j.ins.2020.02.067
Lecun, Y., Bottou, L., Bengio, Y., & Haffner, P. (1998). Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278-2324. https://doi. org/10.1109/5.726791
Mehra, M., BagrT, A., Jiang, X., Ortiz, J. (2016). Image analysis for identifying mosquito breeding grounds. International Conference on Communication and Networking (SECON Workshops), 1-6. https://doi.org/10.1109/SECONW.2016.7746808
Minakshi, M., Bhuiyan, T., Kariev, S., Kaddumukasa, M., Loum, D., Stanley, N. B., & Jacob, B. G. (2020). High-accuracy detection of malaria mosquito habitats using drone-based multispectral imagery and Artificial Intelligence (AT) algorithms in an agro-village peri-urban pastureland intervention site (Akonyibedo) in Unyama SubCounty, Gulu District, Northern Uganda. Journal of Public Health and Epidemiology, 12(3), 202-217. https://doi.org/10.5897/JPHE2020.1213
MSB -Ministério da Saúde do Brasil. (2020). Ministério da Saúde lança campanha de combate ao Aedes aegypti. https://antigo.saude.gov.br/saude-de-a-z/combate-aoaedes. Acesso em: 4 jun 2021.
OMS - Organizaçao Mundial de Saúde. (2017). Keeping the vector out: housing improvements for vector control and sustainable development. https://apps.who. int/iris/handle/10665/259404. Acesso em: 4 jun 2021.
OPAS - Organizaçâo Pan-Americana de Saúde. (2020). Casos de dengue nas Americas chegam a 1,6 milhāo, o que destaca a necessidade do controle de mosquitos durante a pandemia. https://www.paho.org/pt/noticias/23-6-2020-casos-dengue-nasamericas-chegam-16-milhao-que-destaca-necessidade-do-controle. Accesso em: 19 fev 2021.
Passos, W. L., Dias, T. M., Junior, H. M. A., Barros, B. D., Araujo, G. M., Lima, A. A., & Netto, S. L. (2018). Acerca da detecçâo automática de focos do mosquito aedes aegypti. In Brazilian Symposium on Telecommunications and Signal Processing, Campina Grande, Brazil (pp. 392-396).
Passos, W. L., da Silva, E. A., Netto, S. L., Araujo, G. M., & de Lima, A. A. (2020). Spatiotemporal consistency to detect potential Aedes aegypti breeding grounds in aerial video sequences. arXiv preprint.
Ponce-Corona, E., Sánchez, M. G., Fajardo-Delgado, D., Acevedo-Juárez, B., De-laTorre, M., Avila-George, H., & Castro, W. (2020). Una revisión sistemática de la literatura enfocada al uso de vehículos aéreos no tripulados durante el proceso de detección de vegetación. RISTI - Revista Ibérica de Sistemas e Tecnologías de Informaçâo, (36), 82-101. https://doi.org/10.17013/risti.36.82-101
Redmon, J., Divvala, S. K., Girshick, R. B., Farhadi, A. (2016). You only look once: Unified, real-time object detection. In: Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition.
Rossi, L., Backes, A. R., Souza, J. R. (2020). Rain Gutter Detection in Aerial Images for Aedes aegypti Mosquito Prevention. In: Anais do XVI Workshop de Visāo Computacional, 1-5. https://doi.org/10.5753/wvc.2020.13474
Saura, J. R., Reyes-Menendez, A., & Palos-Sanchez, P. (2019). Mapping multispectral digital images using a cloud computing software: applications from UAV images. Heliyon, 5(2), e01277. https://doi.org/10.1016/j.heliyon.2019.e01277
Schirrmeister, R. T., Springenberg, J. T., Fiederer, L. D. J., Glasstetter, M., Eggensperger, K., Tangermann, M., & Ball, T. (2017). Deep learning with convolutional neural networks for EEG decoding and visualization. Human brain mapping, 38(11), 53915420. https://doi.org/10.1002/hbm.23730
Stanton, M. C., Kalonde, P., Zembere, K., Spaans, R. H., & Jones, C. M. (2021). The application of drones for mosquito larval habitat identification in rural environments: a practical approach for malaria control. Malaria journal, 20(1), 1-17. https://doi. org/10.1186/s12936-021-03759-2
Suduwella, C., Amarasinghe, A., Niroshan, L., Elvitigala, C., De Zoysa, K., & Keppetiyagama, C. (2017). Identifying mosquito breeding sites via drone images. In Proceedings of the 3rd Workshop on Micro Aerial Vehicle Networks, Systems, and Applications (pp. 27-30). https://doi.org/10.1145/3086439.3086442
Vintimilla, A., Madera, P., Otero, N., Salinas, S., Duque, M., & Mullo, C. (2020). Método de estimación de velocidades operacionales en el diseño de UAVs de ala fija para fotografía aérea. RISTI - Revista Ibérica de Sistemas e Tecnologias de Informaçâo, (E29), 283-298.
Xu, Z. F., Jia, R. S., Sun, H. M., Liu, Q. M., & Cui, Z. (2020). Light-YOLOvß: fast method for detecting green mangoes in complex scenes using picking robots. Applied Intelligence, 1-18. https://doi.org/10.1007/s10489-020-01818-w
Yi, Z., Yongliang, S., & Jun, Z. (2019). An improved tiny-yolov3 pedestrian detection algorithm. Optik-International Journal for Light and Electron Optics, 183, 17-23. https://doi.org/10.1016/j.ijleo.2019.02.038
You have requested "on-the-fly" machine translation of selected content from our databases. This functionality is provided solely for your convenience and is in no way intended to replace human translation. Show full disclaimer
Neither ProQuest nor its licensors make any representations or warranties with respect to the translations. The translations are automatically generated "AS IS" and "AS AVAILABLE" and are not retained in our systems. PROQUEST AND ITS LICENSORS SPECIFICALLY DISCLAIM ANY AND ALL EXPRESS OR IMPLIED WARRANTIES, INCLUDING WITHOUT LIMITATION, ANY WARRANTIES FOR AVAILABILITY, ACCURACY, TIMELINESS, COMPLETENESS, NON-INFRINGMENT, MERCHANTABILITY OR FITNESS FOR A PARTICULAR PURPOSE. Your use of the translations is subject to all use restrictions contained in your Electronic Products License Agreement and by using the translation functionality you agree to forgo any and all claims against ProQuest or its licensors for your use of the translation functionality and any output derived there from. Hide full disclaimer
© 2021. This work is published under https://creativecommons.org/licenses/by/4.0/ (the “License”). Notwithstanding the ProQuest Terms and Conditions, you may use this content in accordance with the terms of the License.
Abstract
In this work, a computer vision system (SVC) is proposed for the automatic identification and geolocation of potential breeding sites of the Aedes aegypti mosquito from aerial images acquired by drones. The developed SVC gave rise to a software, whose core is composed of a convolutional neural network (CNN) that presented rates of recall and mAP-50 (mean average precision) of 0.9294 and 0.9362 in the experiments conducted with a database composed by 500 images. Keywords: Drone; Mosquito; Pattern Recognition; Computer Vision; Convolutional Neural Networks. 1.Introduçao As doenças causadas pelo mosquito Aedes aegypti, como dengue, chikungunya e zika, vem preocupando as autoridades da Organizaçâo Mundial da Saúde - OMS, segundo a qual, o número de casos notificados de dengue aumentou rapidamente nas últimas décadas (OMS, 2017). (2016), um framework foi proposto para detectar possíveis criadouros de mosquitos em imagens do Google e de vários outros dispositivos (cameras digitais, smartphones e drones).
You have requested "on-the-fly" machine translation of selected content from our databases. This functionality is provided solely for your convenience and is in no way intended to replace human translation. Show full disclaimer
Neither ProQuest nor its licensors make any representations or warranties with respect to the translations. The translations are automatically generated "AS IS" and "AS AVAILABLE" and are not retained in our systems. PROQUEST AND ITS LICENSORS SPECIFICALLY DISCLAIM ANY AND ALL EXPRESS OR IMPLIED WARRANTIES, INCLUDING WITHOUT LIMITATION, ANY WARRANTIES FOR AVAILABILITY, ACCURACY, TIMELINESS, COMPLETENESS, NON-INFRINGMENT, MERCHANTABILITY OR FITNESS FOR A PARTICULAR PURPOSE. Your use of the translations is subject to all use restrictions contained in your Electronic Products License Agreement and by using the translation functionality you agree to forgo any and all claims against ProQuest or its licensors for your use of the translation functionality and any output derived there from. Hide full disclaimer
Details
1 Universidade Nove de Julho (UNINOVE), Rua Vergueiro, 235/249 - Sao Paulo/SP - Brasil