IA é usada para mapear áreas de risco em São Sebastião

07/02/2025
Segundo os pesquisadores, o grupo o trabalho com modelos de aprendizado de máquina foi escolhido porque eles são particularmente bons para lidar com uma grande quantidade de dados.

Pesquisadores da Unesp em São José dos Campos e do Centro Nacional de Monitoramento e Alertas de Desastres Naturais (Cemaden) desenvolveram um estudo que utiliza inteligência artificial para mapear áreas de risco em São Sebastião, município do litoral norte paulista, que em 19 de fevereiro de 2024 enfrentou o maior acumulado de chuva de sua história - mais de 600mm em 24h que deixou 65 mortos, casas destruídas e rodovias bloqueadas.

Dentre as oito cidades afetadas, São Sebastião foi considerada o epicentro do desastre e a mais impactada, somando o maior número de mortos e desabrigados. Um ano após a tragédia, os moradores da região seguem sob ameaça de novos deslizamentos, o que levantou um debate sobre as potenciais áreas de risco e as ações de prevenção necessárias. Enquanto a Procuradoria Geral do Estado ingressou com uma ação para autorizar a demolição de 893 imóveis da Vila Sahy, uma das áreas mais impactadas e de maior risco, o Ministério Público Federal (MPF) acionou engenheiros da Universidade Federal de São Paulo (Unifesp) para prestarem esclarecimentos sobre a situação à Justiça Estadual, que decidiu pela permanência das moradias. “A combinação de fatores naturais, como a presença da Serra do Mar, com pressões antrópicas, como a urbanização crescente, destacou a importância de métodos avançados de aprendizado de máquina para mapear e prever áreas suscetíveis a deslizamentos”, diz Enner Alcântara, docente do Instituto de Ciência e Tecnologia da Unesp.

No artigo, intitulado ‘Machine learning approaches for mapping and predicting landslide-prone areas in São Sebastião (Southeast Brazil)’, o grupo de pesquisadores selecionou o algoritmo mais eficiente e com maior taxa de precisão na previsão de desastres. Além disso, também identificaram quais características ambientais e de ocupação têm maior impacto no risco de deslizamento. Uma primeira etapa da pesquisa testou cinco dos algoritmos mais utilizados em trabalhos de previsão de desastres para identificar aquele com a melhor precisão. Para isso, o grupo alimentou os modelos com informações de clima, tipo de solo, tipo de vegetação, relevos da região, acidentes anteriores e ocupação de terra. Com isso, o conjunto de algoritmos selecionados passaram por um treinamento, no qual aprenderam a identificar as combinações de fatores que levaram a deslizamentos, tendo como base eventos passados, para, por fim, serem testados realizando novas previsões de áreas de risco.

Segundo os pesquisadores, o grupo o trabalho com modelos de aprendizado de máquina foi escolhido porque eles são particularmente bons para lidar com uma grande quantidade de dados, além de serem capazes de identificar padrões que são praticamente impossíveis de vislumbrar com outras técnicas ou mesmo com a análise humana. “Atualmente, as técnicas tradicionais empregadas para previsão de deslizamentos de terra se baseiam principalmente em abordagens físicas e estatísticas”, explica Alcântara, que também é coordenador do Programa de Pós-Graduação em Desastres Naturais, criado em parceria entre Unesp e Cemaden. Segundo o pesquisador, alguns dos principais desafios enfrentados pelas técnicas tradicionais envolvem a necessidade de informações precisas e de dados de alta resolução, que nem sempre estão disponíveis. Além disso, elas tendem a não apresentar bom desempenho quando expostas a uma grande quantidade de dados, por exemplo, ao tentar fazer previsões em áreas extensas ou em regiões que apresentam uma grande variabilidade ambiental. É justamente nessas lacunas que as técnicas de aprendizado de máquina prosperam.

Nos testes comparativos, o modelo chamado de Gradient Boosting (GB) se destacou. Na escala AUC-ROC, utilizada para medir a performance geral dos algoritmos, o modelo GB alcançou uma performance de 0.963 – a pontuação máxima que pode ser atingida é 1. Além disso, o modelo chegou a 99,6% de precisão, enquanto o segundo colocado, chamado de Random Forest, obteve 90.2% no mesmo teste.