Agora é a vez da previsão do tempo

Tempo de leitura : 8 min

Como se faz a previsão do tempo hoje em dia? Bem, a resposta para essa pergunta pode seguir muitos caminhos e a utilização de computadores dificilmente estariam excluídos desse processos. Como bem sabido, o comportamento da atmosfera é governado por leis físicas que podem ser expressas por equações matemática. Porém, estas não são tão simples e não possuem uma solução exata para valores futuros.

Desta forma, as previsões são estimativas que sempre vem acompanhado de uma margem de erro. Para que consigamos prever com uma pequena margem de erro, isto é,  para que uma “previsão seja uma previsão”  é necessário a utilização diversas técnicas de modelagem numérica o que dá origem a diversos modelos numéricos de  previsão do tempo. 

Quando as equações que governam a atmosfera são resolvidas sobre todo o globo, considerando todos os fenômenos atmosféricos, sem se ater os detalhes regionais, temos  um modelo numérico global. Modelos regionais, muitas vezes usam resultados da modelagem global otimizar as estimativas. Além disso, qualquer um destes modelos depende dos dados obtidos nas diversas estações de monitoramento que durante muitos anos eram as únicas fonte de informação do tempo. 

Um pouco de história 

Até a década de 50, usava-se um modelo linear para previsão meteorológica, que era baseado em dados experimentais. Como este modelo, a temperatura do dia seguinte era prevista como sendo uma constante c0, mais cvezes a temperatura (p1) de hoje as 12 h, mais c2 vezes a umidade (P2) relativa do ar em uma cidade próxima as 11 h, c3 mais a velocidade do vento (P3) em outra cidade em outro tempo qualquer e assim, sucessivamente. Ou seja, através de uma combinação linear dos dados obtidos (algo como c0 + c1p1+c2p4+ c3p4 + c4p4 +…cnpn).

Evidentemente havia um conjunto de procedimentos matemáticos para determinar os valores das constantes que não cabe aqui explicar. O fato é que o papel do meteorologista era selecionar os termos a serem multiplicados por essas constantes e avaliar, de certa forma o peso que ela teria no valor do tempo amanhã.

Até então, achava-se que essa técnica seria satisfatória para solucionar problemas relacionados a previsão. Porém Lorenz, um matemático, que após servir durante a segunda guerra mundial como meteorologista, decidiu investigar mais afundo alguns aspectos teóricos.

Em 1956, Lorenz decidiu testar a metodologia que estava sendo usada. Assim, selecionou um sistema de equações diferenciais não lineares e obteve suas soluções numéricas. Esta solução então seria tratada como o conjunto de dados reais e assim poderiam ser usadas para avaliar a precisão do método linear, uma vez que se conhece de fato todos os parâmetros envolvidos.

Para testar a capacidade de previsão do método linear, ele deveria encontra uma solução inesperada, ou aperiódica, para os parâmetros usados em seu sistema de equações. A combinação de parâmetros que produzia tal solução só foi encontrada em 1959. Quando então, aplicou a metodologia linear a previsão ficou muito longe de ser considerada minimamente satisfatória.

Com a intenção de analisar com mais detalhes os cálculos numéricos, Lorenz resolveu refazer a simulações. Porém, para ganhar tempo, ele introduziu valores já obtidos em simulações anteriores. Surpreendentemente, os novos resultados não se pareciam em nada com os valores reais ou mesmo com os da simulação anterior.

Os dados que haviam usados para ganhar tempo, estava registrado apenas com 3 algorismo, porém, a máquina trabalhava com mais. Lorenz percebeu aqui que havia involuntariamente introduzido um erro de arrendondamento.

Este erro em questão, crescia exponencialmente a medida que a simulação prosseguia, até chegar a um ponto em que os valores estavam radicalmente alterados.

Lorenz aqui então observou de fato o problema da imprevisibilidade atmosférica. Muito provavelmente as equações completas que descrevem com maior precisão a circulação atmosférica apresentam a mesma sensibilidade as condições inicias, o que torna muito difícil a previsão do tempo em longo prazo.

Pequenos erros na precisão das medidas podem comprometer a validade das previsões do tempo para momentos posteriores. A esta dependência sensível de parâmetros em sistemas de equações ficou conhecida como efeito borboleta. Metaforicamente se diz que o bater das asas de uma borboleta poderia provocar um tornado em uma região distante dalí. Sendo esse leve bater das asas os pequenos erros enquanto que o furação o evento caótico não esperado. E deste então, houveram diversos avanços nos modelos de previsão, não somente pela melhoria na técnica de modelagem mas com o avanço e do desenvolvimento de supercomputadores.

Um tanto óbvio afirmar, que todo o arcabouço teórico e melhorias das técnica de previsão usando supercomputadores não existe simplesmente para auxiliar na tomada de decisão de levar ou um guarda-chuvas ao sair de casa. Claro que chegar molhado ou mesmo carregar um volume extra no cinema por exemplo, é desagradável. Aqui já basta a qualidade do filme ser uma incógnita (até assistirmos) ou mesmo as repetidas reclamações diante do preço da pipoca. Porém a tomada de decisões relativas ao clima vão muito além deste desconforto. A pipoca que você come durante o filme dependeu, e muito, do monitoramento do tempo. Seja na produção agrícola ou mesmo durante o transporte.

Decisões de produção e o planejamento de culturas agrícolas levam em conta as previsões meteorológicas . O transporte de carga ou de pessoas também usam, seja para cancelar voos ou pra mudar rotas. Além disso, o Brasil com sua dimensão territorial, apresentam escalas para a previsão que são desafios interessantes do ponto de vista científico.

Assim, a sociedade que abraça essas conquistas, de levar ou não o guarda-chuva, se deve aos investimento, tanto na formação de recursos humanos nas universidades, como de infra estrutura, através de estações de monitoramento e supercomputadores. 

Supercomputador Tupã

Crise na previsão do tempo 

Bem, todo esse texto acima foi para apresentar quanto isto é extremamente relevante. Naturalmente você pode lembrar de outros exemplos onde supercomputadores ou mesmo a meteorologista é importante.

Atualmente o principal supercomputador de previsão de tempo, Tupã, está à beira da morte. Localizado em Cachoeira Paulista no centro de previsão do tempo e meteorologia(Cptec) do INPE. A máquina com 7 anos, mesmo e manutenção constante, pode parar a qualquer momento. A troca de máquina, orçada em  ~100 milhões, deveria ter ocorrido em 2015. Porém vem se arrastando nos últimos 2 anos. Nos últimos 25 anos, este é o maior tempo sem troca de maquina.

Porém os recorrentes cortes no ministério da ciência e tecnologia nos últimos 2 anos (só este ano o corte/congelamento de 44% ler mais sobre aqui). Porém diferentemente de um congelamento, onde em caso de emergência é liberado. Para 2018, trata-se de corte real de aproximadamente 25% do reduzido orçamento atual. (detalhe aqui ). 

Soma-se a isso, a incrível redução de orçamento do instituto nacional de pesquisas espacial. Nos últimos 7 anos a redução foi de quase 70%. Essa redução já compromete inclusive o monitoramento via satélites da amazônia. Ou seja, talvez não tenhamos previsão do tempo e nem capacidade de monitorar o desmatamento da amazônia[aqui].

Infelizmente, a pequena mudança na forma de investir em pesquisa no Brasil não é ligeiro erro. Possivelmente Lorenz concordaria que não precisariam de um sistema complexo para descrever a quanto é importante  o investimento em ciência. No mais, não esqueçam o guarda-chuvas quando sair.

 

Sigam também a página no facebook para notícias de ciências

 

Leituras e Referências

Stocker, Thomas. Introduction to Climate Modelling. springer 2011

Monteiro,A. Sistemas dinâmicos.Editora Livraria da Fisica, 2006 

Estadão: Governo propõe 25% de corte no orçamento de ciência e tecnologia para 2018

Lembranças das aulas de pós-graduação