3    MESTRADO E DOUTORADO: 1976-1981 (DESENVOLVIMENTO)

3.1 Segurança e Geotecnia: o Mestrado (Tema 1)

3.2 Modelos matemáticos no Mestrado (Tema 2)

3.3 Bayes e Análise de Decisões: os fundamentos do Doutorado (Tema 1)

3.4 Modelos matemáticos no Doutorado (Tema 2)

3.5 Atualização Bayesiana: o Doutorado (Tema 1)


3.1 Segurança e Geotecnia: o Mestrado (Tema 1)

3.1.1 Coeficientes de segurança não medem segurança

O tema da dissertação de mestrado foi sugerido pelo mestre Décio de Zagottis. Ele andava entusiasmado com a “Introdução da Segurança no Projeto Estrutural” e a minha dissertação foi, por assim dizer, uma extensão, para a Geotecnia, da sua apostila homônima (de Zagottis, 1975). Acredito, hoje, que havia pontos demais em comum entre os dois trabalhos, seguramente devido à inexperiência e à insegurança do mestrando.

Os pontos centrais de ambos os trabalhos podem ser assim resumidos:

Uma diferença significativa entre eles é que de Zagottis, 1975 de certa forma vinculava os coeficientes de segurança internos ao Método das Tensões Admissíveis -- o que é perfeitamente defensável -- mas também os externos ao Método dos Estados Limites, com a aparente vantagem das interpretações baseadas nos teoremas estático e cinemático da Análise Limite.

Relembrando o requisito básico de coeficientes de segurança exprimirem incertezas, sugeri que no caso de estruturas em que o peso próprio é a ação principal, como os taludes, é perfeitamente legítimo, caso se opte por um coeficiente de segurança global, escolher o interno: nessas situações é nas resistências que se concentra a maior parte das incertezas.

De fato, as análises de estabilidade de taludes tradicionalmente consideram coeficientes de segurança internos e o Método dos Estados Limites, enquanto a segurança das fundações é usualmente verificada através de coeficientes de segurança externos, mas também pelo Método dos Estados Limites.

O Prof. de Zagottis considerou que esta teria sido a principal contribuição conceitual da dissertação de mestrado.
 

3.1.2 Métodos de Verificação da Segurança

Na revisão bibliográfica aquele trabalho adota a seguinte subdivisão dos métodos de verificação de segurança (apenas a ordem foi aqui alterada, de modo a ficar mais próxima da ordem evolutiva desses métodos): Ao longo do tempo, estudando e aplicando programação estruturada e programação orientada para objetos no desenvolvimento de programas de computador, tornei-me mais exigente em relação à taxionomia. Parece-me hoje que a classificação acima pode ser substancialmente melhorada, inclusive incorporando o tipo de coeficiente de segurança utilizado em cada um dos métodos. A relação entre o MTA e o MEL, por exemplo, é intrinsecamente diferente da relação entre o MPP e o MPC. O MPC é claramente um caso particular do MPP. Já o MSP pode ser visto como uma extensão do MPC para levar em conta outros efeitos que não apenas a variabilidade de solicitações e resistências. Além disso, o MEL comporta tanto formulações deterministas quanto probabilistas. Uma melhor subdivisão seria talvez:

3.1.3 Requisitos para o estabelecimento de critérios de segurança

O trabalho de Brinch Hansen (1956) foi talvez o primeiro, na Engenharia Geotécnica, que propôs que a segurança não fosse expressa por um coeficiente de segurança global, mas que estivesse distribuída entre os fatores intervenientes no projeto, de acordo com a sua incerteza e outros critérios, tal como o CEB recomendaria posteriormente para as estruturas de concreto. O quadro dos fatores que influenciam a segurança, apresentado na minha dissertação de mestrado, fica mais completo na forma apresentada a seguir.

Fatores que determinam os critérios de segurança

No quadro acima apresentam-se os três níveis de incertezas normalmente reconhecidos. Cada um deles é adiante discutido da forma como os vejo atualmente. Essa discussão também apresenta algumas diferenças em relação à minha publicação mais recente sobre o tema, o Capítulo 5, Segurança das Fundações e Escavações, do livro "Fundações: Teoria e Prática".

A incerteza intrínseca é aquela não redutível, inerente ao próprio caráter aleatório dos fenômenos, que está portanto presente de forma inexorável, ainda que nem sempre explícita, nos coeficientes de segurança, nas formulações probabilistas e em quase tudo que se relaciona com segurança.

A previsão da resposta dos sistemas é feita através de modelos físicos, químicos e biológicos. Pode parecer estranha a inclusão de modelos químicos e biológicos, mas a Geotecnia Ambiental não pode prescindir desses modelos quando trata, por exemplo, do transporte de poluentes e da remediação de áreas contaminadas. A escolha do modelo traz consigo a incerteza quanto à sua adequação ao problema em estudo. É usual em Engenharia Geotécnica a utilização de modelos baseados no equilíbrio limite, por exemplo, embora se saiba que, conceitualmente pelo menos, modelos que levassem em conta as deformações e sua compatibilidade pudessem ser mais realistas. Dessa forma, situações em que a segurança deveria ser verificada contra um estado limite de utilização, como o caso de muros de arrimo, são verificados contra estados limites últimos. Somente a experiência acumulada avaliza essa escolha, mas é evidente que, como nenhuma situação é exatamente idêntica à anterior, paira sempre uma incerteza quanto à adequação do modelo a cada circunstância específica à qual ele é aplicado. Essa incerteza subjacente não é diretamente mensurável. A escolha do modelo é normalmente tratada como uma hipótese de trabalho: feita a escolha, o modelo é admitido como verdadeiro. Em termos probabilistas formais, essa postura equivale a considerar condicionais todas as probabilidades calculadas com base no modelo. A probabilidade de ruína, por exemplo, não será simplesmente P[ruína], mas P[ruína | modelo], ou seja, uma probabilidade de ruína condicional ao modelo escolhido. Na verdade, as condições correspondem a todas as hipóteses do modelo escolhido. Dentre os modelos de equilíbrio limite, por exemplo, a escolha do tipo de superfície de escorregamento também condiciona as probabilidades: P[ruína | equilíbrio limite, superfície circular].

Os modelos mais usuais são paramétricos. O módulo de Young, o coeficiente de Poisson, o ângulo de atrito e a coesão são exemplos de parâmetros de modelos mecânicos largamente utilizados em Engenharia Geotécnica. Os valores dessas propriedades são normalmente obtidos a partir de amostragem e ensaios, sendo em princípio possível conhecê-los com maior precisão -- menor incerteza -- com um maior número de ensaios. Por essa razão essa incerteza de parâmetros é também denominada estatística. Tradicionalmente a precupação centrava-se quase exclusivamente no conhecimento do valor médio dessas propriedades, postura essa até justificável pelo caráter maciço das estruturas de solo, o que confere a diversos fenômenos de interesse um comportamento condicionado por médias. A evolução dos critérios de segurança vem exigindo a quantificação de dispersões e a adoção de modelos probabilistas que descrevam o caráter aleatório dessas propriedades. Dessa forma, a incerteza do parâmetro do modelo físico, químico ou biológico -- na verdade, a incerteza da sua média -- vem sendo substituída pelas incertezas dos parâmetros do modelo probabilista adotado para descrevê-lo. Um exemplo ajudará a esclarecer esse ponto. Quando se adota um modelo probabilista -- o lognormal, por exemplo -- para representar a aleatoriedade da permeabilidade, K, está-se automaticamente transferindo para os dois parâmetros desse modelo (no caso, a mediana de K e o desvio padrão de ln K) a incerteza daquela propriedade.

Conforme se verifica, a escolha de um modelo probabilista introduz uma incerteza adicional de modelo. A partir daí qualquer juízo probabilista será condicional também ao modelo probabilista escolhido.

Os erros de análise do texto da dissertação de Mestrado foram substituídos por inexatidões. Erros são muito freqüentemente associados a falhas humanas e não são essas as falhas teóricas e numéricas que se pretende ver contempladas na classificação proposta.

A diferença entre incertezas e inexatidões parece-me semelhante àquela existente entre dispersões e desvios. Os coeficientes de segurança, globais ou parciais, aplicados às estruturas de arrimo não se prendem exclusivamente às variabilidades das ações, solicitações e resistências, mas também à inexatidão do modelo de equilíbrio limite utilizado na análise e à necessidade de, ainda que indiretamente, garantir a segurança contra o estado limite de utilização: deslocamentos excessivos. O modelo utilizado, consagrado pelo uso, não permite a avaliação explícita do campo de deslocamentos, pelo que essa inexatidão tem que ser compensada na verificação da segurança. No projeto de estruturas de solo reforçado, processos como o multi-critério recomendam que à resistência dos elementos de reforço a esforços transversais sejam aplicados coeficientes de minoração bastante elevados. Outros, como o processo de Davis (Shen et al., 1981) simplesmente desprezam essa resistência, o que equivale a adotar coeficiente de minoração infinito. Não é apenas a incerteza das resistências que justifica coeficientes tão elevados, posto que coeficientes muito menores são recomendados para a resistência a esforços longitudinais. Novamente é essencial limitar deslocamentos, isto é, garantir a segurança contra um estado limite de utilização. O modelo adotado, todavia, não permite o cálculo e a compatibilização de deslocamentos. Para compensar essa inexatidão do modelo, a resistência transversal dos reforços é praticamente desprezada, pois ela requereria, para a sua mobilização, deslocamentos muito maiores do que os aceitáveis, e também do que aqueles necessários para mobilizar a resistência à tração dos elementos de reforço. A compatibilidade de deslocamentos, que não pode ser imposta explicitamente pelo modelo escolhido, determina que, para os níveis aceitáveis de deslocamento, os elementos de reforço estejam mais próximos da ruptura à tração do que da ruptura por cisalhamento ou flexão. Conforme mencionado no capítulo 5 do livro "Fundações: Teoria e Prática", esse ponto foi muito bem explicado, por exemplo, por Cardoso e Fernandes (1986).

As inexatidões numéricas são meramente aquelas decorrentes do algoritmo numérico adotado para a aplicação do modelo escolhido e não devem ser confundidas com erros de cálculo.

Finalmente, é intuitivo que a segurança tem que ser maior quando as conseqüências da ruína são mais sérias. A primeira formalização dessa idéia, eu a encontrei no trabalho do meu orientador (de Zagottis, 1975), que apresentava a minimização do custo esperado da obra como critério ideal de verificação da segurança. Posteriormente, já no MIT, essa mesma idéia me seria apresentada no arcabouço da Análise de Decisões, abrindo perspectivas ainda mais amplas para o conceito de segurança.
 

3.1.4 Probabilidade de eventos únicos

Uma questão apaixonadamente discutida por um dos examinadores da dissertação de Mestrado foi a questão da atribuição de probabilidades a eventos não repetitivos. Como esse assunto remete inevitavelmente à visão alternativa de probabilidade, a bayesiana, deixa-se a sua discussão para um capítulo seguinte.
 

3.2 Modelos matemáticos no Mestrado (Tema 2)

3.2.1 Processos de análise de estabilidade de taludes

A pesquisa relacionada com a dissertação de Mestrado não foi inspiradora de estudos relacionados aos modelos matemáticos. Algumas resenhas foram escritas como seminários de disciplinas de pós-graduação, particularmente a de Análise Matricial de Estruturas e a do Método dos Elementos Finitos, ambas então sob a responsabilidade do Prof. Souza Lima. Não chegaram a ser publicadas, pois interessavam muito mais ao aprendizado do aluno do que a leitores mais experientes.

O Seminário, apresentado para atender aos requisitos do curso de Mestrado na Escola Politécnica, foi o primeiro trabalho de cunho mais acadêmico: um estudo comparativo dos métodos e processos de análise de estabilidade de taludes em Geotecnia. O trabalho era um pouco incompleto, pois não discutia os métodos de Spencer e de Sarma, por exemplo, já disponíveis à época.

Ainda assim, a reflexão obrigatória sobre as razões para a aplicação do método de equilíbrio limite a muitos dos problemas de Engenharia Geotécnica, em contraposição aos métodos usuais de análise das estruturas reticuladas, foi essencial para a sistematização dos métodos de verificação da segurança, apresentada na Dissertação.

Um outro ponto forte do Seminário foi a discussão conceitual das formas alternativas de consideração dos efeitos da percolação e da submersão. Embora o assunto pareça trivial, com alguma freqüência encontram-se profissionais que não têm conceitos claros quanto à consideração de pressões neutras ou forças de percolação nas suas análises de estabilidade de taludes.

Dado o interesse que o assunto suscitava entre os engenheiros geotécnicos, o texto chegou a ser transformado numa publicação do Departamento de Engenharia de Estruturas e Fundações (publicação nº 504), do qual eu já era docente. Essa publicação acabou relegada ao esquecimento quando, poucos anos depois, alguns colegas docentes resolveram transcrever para uma apostila de exercícios somente as partes da publicação 504 que lhes pareceram mais relevantes. Sem comentários ...
 

3.2.2 A integral de convolução para cálculo da probabilidade de ruína

A figura 1.4-2 da dissertação de mestrado, reproduzida adiante na figura 1, foi utilizada por um dos examinadores para ilustrar uma crítica relacionada à simultaneidade de níveis de solicitação e de resistência. Parece-me, até hoje, que aquela figura não tem nenhuma pretensão ou possibilidade de refletir variações do nível de segurança no tempo. Ainda que procedente, a crítica estava mal colocada.

Figura 1 – Reprodução da figura 1.4-2 da dissertação de Mestrado

Mas o debate aguçou o meu espírito crítico em relação àquela figura e à integral nela implícita. Naquela e em oportunidades subseqüentes ela se revelou sempre indutora de confusão, embora fosse freqüentemente apresentada para ilustrar o cálculo da probabilidade de ruína através da integral de convolução. Fiquei tão convencido da sua inadequação para essa finalidade que jamais voltei a utilizá-la.

Nas aulas da disciplina PEF-837 (Probabilidade, Estatística, Decisões e Segurança em Engenharia Geotécnica), por exemplo, passei a dar preferência sempre à figura em que as duas variáveis -- solicitação e resistência -- são separadas, cada uma em seu eixo, de modo que se possa visualizar inequivocamente a integral a ser calculada para a determinação da probabilidade de ruína (figura 2). Essa figura, ao contrário da outra, permite também representar a eventual correlação entre as variáveis, algo desejável tanto do ponto de vista conceitual quanto do prático: a ausência de correlação pode ser apresentada como uma particularização do caso geral e pode-se representar com facilidade a situação, relativamente comum em Engenharia Geotécnica, em que solicitação e resistência são correlacionadas pelo fato da resistência depender da tensão normal nos solos que exibem atrito.
 

Figura 2 – Probabilidade de ruína como integral de uma função densidade de probabilidade de duas variáveis.

3.3 Bayes e Análise de Decisões: os fundamentos do Doutorado (Tema 1)

3.3.1 Teorema de Bayes é essencial

Se fosse necessário destacar um único tópico não estritamente geotécnico como o mais significativo do meu doutorado no MIT, este seria o Teorema de Bayes. É claro que a expressão do teorema, derivada diretamente da definição de probabilidade condicional, já era conhecida. No contexto de disciplinas relacionadas com Análise de Riscos e Análise de Decisões, todavia, o teorema se apresentava com uma abrangência insuspeitada: como um processador de informação, um incorporador de experiência.

O Teorema de Bayes desempenhou um papel central na tese de doutorado e nas pesquisas e trabalhos que se seguiram.

Sendo formalmente uma decorrência natural da definição de probabilidades condicionais, a aplicação do teorema de Bayes convida à consideração do caráter condicional das probabilidades. Quando se diz, por exemplo, que é de 2% a probabilidade de ruína de um talude, é evidente que essa probabilidade é condicional, por exemplo, aos dados disponíveis e aos modelos utilizados para a verificação da segurança, conforme já discutido no item 3.1.3 Requisitos para o estabelecimento de critérios de segurança.

Mas é igualmente verdade que essa probabilidade é condicional à experiência de quem interpretou os dados disponíveis e escolheu o modelo a ser utilizado. A consideração da probabilidade como condicional ao estimador leva, assim, ao perigoso terreno das probabilidades subjetivas -- e a todas as conseqüências, subjetivas e passionais, envolvidas.
 

3.3.2 A Engenharia não pode prescindir da Análise de Decisões

Conforme já mencionado em 3.1.4 Probabilidade de eventos únicos, um dos examinadores da minha dissertação de Mestrado havia criticado a atribuição de probabilidades a fenômenos únicos, não repetitivos, como a existência de solo mole em um determinado local. Nunca tive nenhuma simpatia por posições dogmáticas como essa. Essa argumentação, típica da escola freqüentista, nega toda e qualquer legitimidade a juízos probabilistas relativos a eventos não repetitivos. Isso eqüivale a negar a possibilidade de aplicação de conceitos probabilistas em Engenharia Geotécnica, ou mesmo Civil, dado o caráter único das condições do subsolo, por exemplo, e das próprias obras. Sabe-se, no entanto, que o engenheiro toma decisões, age com base em uma hipótese de trabalho admitida como verdadeira: se opta por fundação direta, está implicitamente recusando a hipótese de existência de solo mole; se escolhe estacas, está aceitando como válida aquela hipótese. Se ele preferiu uma solução à outra, conhecendo os custos relativos de cada uma e as conseqüências de um eventual insucesso, uma estruturação simples do seu processo decisório, utilizando Análise de Decisões, permite calcular por retroanálise qual a probabilidade por ele atribuída à existência de solo mole no local da fundação. Ora, se é possível retroanalisar a decisão, chegando à probabilidade implícita de existência de solo mole, por quê não aceitar essa definição pragmática de probabilidade como grau de convicção e utilizar essa formulação como um auxílio à tomada de decisões?

Uma frase de Victor de Mello (1978), em sua magistral Rankine Lecture (que naquela época um colega de MIT e eu passamos alguns dias a destrinçar), reforçou essas convicções que se vinham formando na minha mente: "we are, we cannot help but be Bayesians in all our root culture".

No Capítulo 5, Segurança das Fundações e Escavações, do livro "Fundações: Teoria e Prática", ensaiei uma comparação entre métodos clássicos e bayesianos na interpretação de resultados de provas de carga (itens 5.5.3.2 e 5.5.3.3). Embora a Estatística clássica tenha métodos consagrados para a análise de dados em situações repetitivas, o seu rigor formal, ao não aceitar, por exemplo, que se façam juízos probabilistas sobre estados da natureza e sobre parâmetros de modelos, colocam-na em uma situação extremamente desfavorável com relação à tomada de decisões face a fenômenos singulares, como é o caso da maioria das decisões da Engenharia Civil.

Mas até mesmo em relação às decisões baseadas em fenômenos repetitivos a falta de fundamentação objetiva no estabelecimento de critérios dificulta a aceitação dos procedimentos da Estatística clássica pelo engenheiro. O fulcro da questão parece residir, de fato, na independência operacional da Estatística clássica em relação ao processo decisório. A Estatística clássica se mantém, como Ciência pura, acima das trivialidades do dia-a-dia. Seus testes de hipóteses podem à primeira vista parecer adequados para a tomada de decisões. Não se pode perder de vista, porém, que uma hipótese é sempre testada para orientar uma ação. Como qualquer ação envolve conseqüências, o teste de hipótese precisa tomar em conta essas conseqüências. A Estatística clássica não o faz de forma satisfatória. É claro que quando as conseqüências são mais graves ela recomenda que se adote um nível de risco -- erro tipo II -- mais baixo: 1% por exemplo. Mas a própria existência de alguns níveis de risco consagrados (10%, 5%,1%) já demonstra que falta um mecanismo que associe o nível de risco às conseqüências.

Esse mecanismo não será encontrado na Estatística clássica, mas na Análise de Decisões, vista como alternativa à inferência estatística. É natural que se preserve o espaço da inferência estatística (clássica), para descrição dos fenômenos por meio de modelos probabilistas. O engenheiro todavia, pela sua própria formação, não pode prescindir de uma "Estatística aplicada" que lhe permita, mais do que descrever fenômenos, instruir decisões. E esse é o papel da Análise de Decisões, combinada com a Estatística bayesiana.
 

3.3.3 Prescrições de norma devem ser fundamentadas na Análise de Decisões

A Análise de Decisões fornece um procedimento objetivo para que as conseqüências de uma eventual ruína sejam levadas em consideração no estabelecimento de critérios de segurança. Em tese, pelo menos, torna-se viável evoluir de prescrições para deduções, nas quais o nível de segurança não precisa ser convencionalmente imposto, mas pode decorrer de uma operação de minimização do custo esperado, exatamente de acordo com o proposto por de Zagottis (1975).

Não seria prático, porém, projetar toda e qualquer obra dessa forma ideal, que exigiria, para cada situação específica, um estudo de alternativas, estimação de probabilidades de ruína e avaliação de conseqüências para cada par ação-resultado. Para obras usuais é essencial que o procedimento seja mais simples e normalizado. Nesse caso é na atividade de normalização que a Análise de Decisões deve ser utilizada, pois somente ela permitirá que os níveis de segurança sejam prescritos (através de coeficientes globais ou parciais) em consonância com a responsabilidade típica de cada tipo de obra, isto é, levando em conta as conseqüências da eventual ruína.
 

Parâmetro "In situ" Laboratório Correlações
Tangente do ângulo de atrito interno 1,2 1,3 1,4
Coesão (estabilidade e empuxo de terra 1,3 1,4 1,5
Coesão (capacidade de carga de fundações) 1,4 1,5 1,6

 Tabela 1 - Coeficientes de ponderação das resistências recomendados pela NBR-6122/96

 Tabelas como a reproduzida na Tabela 1, proveniente da NBR-6122/96, constituem-se em excelentes exemplos de prescrições que poderiam seguramente ser melhor fundamentadas. A regularidade dos incrementos de coeficientes de segurança, de acordo com a qualidade da informação geotécnica, sugere claramente que essas variações, ainda que estabelecidas no sentido intuitivamente correto, não provêm de uma análise mais profunda que levasse em conta custos de obtenção da informação geotécnica adicional e a corrrespondente redução da probabilidade de ruína. Eis aí, portanto, uma situação em que a Análise de Decisões ofereceria subsídios valiosos para a normalização. Observe-se que não pretendo, com esse comentário, minimizar os avanços já alcançados na nova versão da norma. Pretendo apenas sugerir possibilidades de aprimoramento, ao mesmo tempo em que me penitencio pela minha relutância em participar de comissões de normalização.
 

3.4 Modelos matemáticos no Doutorado (Tema 2)

3.4.1 Modelos de análise de percolação

No item 6.5 da minha tese de Doutorado discuto as dificuldades encontradas para encontrar um programa de elementos finitos que resolvesse adequadamente o problema de fluxo não confinado, condição essa essencial para a aplicação à percolação em barragens de terra e enrocamento.

Esse assunto, que poderia ter sido totalmente secundário em relação ao tema da pesquisa, não o foi por duas razões. Em primeiro lugar, pela própria dificuldade já mencionada: verifiquei, para minha surpresa, que programas sobre os quais já havia artigos publicados em revistas técnicas padeciam ainda de muitas dificuldades operacionais para a aplicação prática. Tenhamos em mente, é claro, que no final da década de 70 os computadores de grande porte eram a única plataforma disponível para esse tipo de programa. Em segundo lugar estava o meu interesse declarado pelos modelos matemáticos e processos numéricos, que me levou a pesquisar o assunto muito mais profundamente do que seria necessário.

Esses dois fatos seriam decisivos, posteriormente, para a minha decisão de me dedicar parcialmente ao desenvolvimento de programas de análise geotécnica para microcomputadores.
 

3.4.2 Correlações espaciais não podem jamais ser ignoradas

Um outro ponto crucial para a aplicação de métodos probabilistas é o reconhecimento das correlações. Se por um lado as correlações temporais são explicitamente tratadas no estudo dos processos estocásticos, as espaciais foram muitas vezes ignoradas em aplicações de modelos probabilistas à Engenharia Geotécnica. Ainda hoje, mesmo tendo sua importância reconhecida, as correlações espaciais são muitas vezes relegadas a um segundo plano em nome da simplicidade. Conforme se mostra a seguir, modelos que não levam em conta as correlações espaciais não são simples, são errados. As probabilidades ditas "nominais" desses modelos têm muito pouca utilidade.

Se a não consideração da correlação leva a um desvio padrão da ordem do dobro do real, numa distribuição normal isso eqüivale a aumentar a probabilidade de ruína em três ordens de grandeza, ou seja, de 10-5 para mais do que 10-2. Não me parece que essa magnitude de variação seja aceitável. Impõe-se uma estimativa, ainda que grosseira, da estrutura de correlação ou da escala de flutuação do campo em estudo. Caso contrário se estará, para usar uma imagem geotécnica, construindo uma edificação sofisticada sobre fundação inadequada, com as conseqüências previsíveis.

De fato, levar em conta essas correlações foi um dos desafios da tese de Doutorado. E um desafio que me levou a descobrir métodos numéricos jamais sonhados. A integração analítica da equação 2.8c da tese, necessária exatamente para o cálculo da correlação entre as permeabilidades de pares de elementos finitos, só havia sido resolvida analiticamente pelo orientador do candidato para elementos retangulares. Procurei, durante algum tempo, encontrar mapeamentos do domínio de integração que pudessem transformar ambos os elementos finitos em retângulos. Não obtendo sucesso imediato e precisando resolver o problema em tempo hábil, recorri aos procedimentos numéricos. E deparei-me, ironicamente, com um procedimento "probabilista" de integração numérica, baseado no processo de simulação de Monte Carlo, vindo a aprender que esse procedimento é mais eficiente do que os usuais quando há mais do que quatro níveis de integração (Hammersley and Handscomb, 1964). Efetuei diversas simulações, com geração de 100, 1000 e 10000 pares de números aleatórios na integração de Monte Carlo, até convencer-me de que essa aproximação numérica e aquela finalmente adotada na tese (aproximação de cada elemento finito por um retângulo ou por um quadrado, para aplicação da solução analítica) levavam a resultados similares. Na redação final, considerei que essa discussão era marginal em relação ao tema principal, de maneira que o fato não chegou a ser registrado na tese. Mas foi essa experiência que me levou a incluir esse procedimento no programa da disciplina PEF-870 - Métodos numéricos para a análise de sistemas físicos.

O Engº Evandro de Ávila Gimenes pesquisou, sob minha orientação e com o apoio da FAPESP e da CESP, a escala de flutuação das propriedades geotécnicas de solos compactados para barragens. Sua dissertação de mestrado (Gimenes, 1988), foi um pequeno passo para suprir a necessidade, apontada na minha tese, de estudos experimentais para a determinação da estrutura de correlação das propriedades geomecânicas. Ainda assim, até mesmo internacionalmente essa necessidade não era suficientemente reconhecida à época, como atesta a minha discussão apresentada na sessão de Formulações Probabilistas em Engenharia Geotécnica do XII Congresso Internacional de Mecânica dos Solos e Engenharia de Fundações (Pasta 2, Verde 15)
 

3.5 Atualização Bayesiana: o Doutorado (Tema 1)

3.5.1 Retroanálise probabilista

O título da tese de Doutorado (“Seepage-related reliability of embankment dams”) é, a rigor, pretensioso em relação ao conteúdo. O termo “reliability”, confiabilidade, está fortemente relacionado ao desempenho de sistemas (“system reliability”). É melhor aplicado, portanto, quando se tomam em consideração todos os diversos modos de ruína de um sistema para, através de combinações das probabilidades associadas a cada um desses modos, chegar à confiabilidade do sistema. A tese não tem, na verdade, essa abrangência quanto aos modos de ruína relacionados à percolação. Não discute, por exemplo, a ruína provocada por “piping”. Não discute tampouco situações transientes. Talvez tenha preponderado, à época, o fato do orientador do candidato haver publicado recentemente um trabalho com título semelhante: "Reliability of Earth Slopes" (Vanmarcke, 1977), e que somente hoje reconheço como passível da mesma crítica.

Um nome que traduziria mais fielmente o conteúdo da tese seria: "Dam safety under steady state seepage: bayesian updating and a probabilistic view of the observational method".

De fato, havia duas idéias centrais no trabalho:

A primeira dessas idéias foi rebatizada, em trabalho publicado no Brasil (Pasta 2, Verde 24), como retroanálise probabilista, considerando que bayesiano era um adjetivo desconhecido da maioria dos engenheiros geotécnicos e que, portanto, só tinha apelo em ambiente acadêmico. Esqueci-me, é bem verdade, de que instrumentação e retroanálise recendem a pesquisa -- e, portanto, algo que deve ser evitado -- para uma parcela significativa dos proprietários e executores de obras ...

Essa retroanálise permite ponderar adequadamente tanto as incertezas anteriores, aquelas que persistem ao final do projeto ou até da execução, e as incertezas dos próprios instrumentos que fornecem as observações de comportamento da obra. Para essa ponderação utilizam-se modelos lineares ou linearizados, existindo uma relação íntima entre essa formulação e a otimização linear, conforme indicam muitas das referências consultadas para a elaboração da tese.
 

3.5.2 Método de observação probabilista

A segunda idéia da tese é, de fato, uma extensão do método de observação de Terzaghi ("observational method"), uma das pedras angulares da Engenharia Geotécnica.

A essência do método de observação é, de fato, o reconhecimento das incertezas de modelo, através da consideração de desvios possíveis em relação à hipótese de trabalho, o projeto de uma instrumentação capaz de detectar esses desvios e, finalmente, a preparação de planos de contingência para, se necessário, fazer face a eles.

A tabela 2, derivada diretamente do trabalho de Peck (1969), mostra o paralelo entre as idéias originais e a extensão proposta na tese.

Uma idéia que não encontrou eco, até o momento, entre os projetistas de instrumentação, foi aquela do item 4.7 da tese, no qual se propõe um procedimento de locação dos instrumentos de forma a maximizar o seu poder discriminador em relação à detecção de desvios da hipótese de trabalho. O que estranha na falta de interesse por essa proposta é que esse poder discriminador da instrumentação é essencial para o sucesso do método de observação. É bem verdade que a proposta exige, para a sua implementação, análises adicionais para cada um dos desvios visualizáveis da hipótese de trabalho.
 

Método de observação tradicional Extensão probabilista
Exploração e investigação das propriedades dos depósitos Exploração e investigação das propriedades dos depósitos
Escolha do conjunto de condições mais prováveis: hipótese de trabalho, Ho Estimação da probabilidade anterior, 
po [ Ho ] 
 
Previsão de desvios concebíveis em relação a Ho: Hi; i=1, 2, 3, ..., m-1 Estimação das probabilidades anteriores, 
po [ Hi ]; i=1,2,3, ..., m-1 
 
Projetar para Ho Projetar para Ho
Selecionar grandezas a serem monitoradas, Zj; j=1, 2, ..., p Selecionar grandezas a serem monitoradas, Zj; j=1, 2, ..., p
Prever as leituras das grandezas selecionadas para a hipótese de trabalho, Ho Fazer essa previsão na forma de uma função densidade de probabilidade que leve em conta as incertezas dos instrumentos e dos parâmetros do modelo, isto é: 
fZj | Ho (zj); j=1,2, ..., p 
 
Fazer a mesma previsão para cada uma das demais hipóteses, Hi Prever as funções densidade de probabilidade para cada uma das demais hipóteses: 
fZj | Hi (zj); i=1,2,3, ..., m-1; j=1,2, ..., p 
 
Preparar plano de contingência para cada um dos desvios concebíveis da hipótese de projeto (Ho) Estruturar o problema de decisão, considerando as diversas hipóteses, as possíveis ações e conseqüências para cada uma delas
Efetuar as leituras e avaliar as condições reais Atualizar as probabilidades em função das leituras, ou seja, calcular 
p [ Hi ]; i=0,1,2,3, ..., m-1 
 
Implementar as ações cabíveis em função da realidade observada Para a hipótese mais provável, 
máx ( p [ Hi ] ); i=0,1,2,3, ..., m-1, 
escolher a melhor ação, de acordo com o modelo de decisão preparado 
 

Tabela 2 – O método de observação e a sua extensão probabilista

Tenho a sensação de que nos projetos usuais efetuam-se análises demais para a hipótese de trabalho e que a instrumentação acaba sendo locada de forma mais ou menos convencional, quase exclusivamente em função da própria hipótese de trabalho. Sua utilidade fica restrita, dessa forma, à retroanálise dos parâmetros do modelo adotado, quase dogmaticamente admitido como verdadeiro. Não admira, nesse contexto, a postura de proprietários e executores de obras, geralmente refratários à instrumentação.

Talvez o nosso País tenha simplesmente passado por uma fase em que não houve muito espaço para as obras de maior porte ou maior ousadia de concepção, que são exatamente aquelas em que o incrementalismo do método de observação ("design as you go") se impõe. Em problemas mais corriqueiros -- ou resolvidos de modo corriqueiro -- não há, de fato, extrapolação para além dos universos consagrados, não se justificando instrumentações mais sofisticadas. Ou talvez os engenheiros civis sejam simplesmente conservadores demais ... (Pasta 2, Verde 4).