Eu
leio muito sobre física. E recentemente li que os físicos costumam se auto dividir,
metaforicamente, entre “Gregos” e “Babilônios”. Isso devido à maneira pela qual
cada um desses povos clássicos se relacionava com a ciência. Os Babilônios se
concentravam nos fenômenos, se permitindo usar o instinto ou a intuição,
dispensando o rigor em relação à matemática. Já os Gregos se focavam na ordem
por trás dos fenômenos e consideravam que uma coisa era verdade apenas se ela
se enquadrasse em um sistema lógico (Mlodnow, Leonard – O Arco-íris de Feynman,
1954). Em outras palavras, os Gregos eram teóricos e os Babilônios eram
experimentalistas.
Gell-Mann e Feynman: O Grego e o Babilônio. Dois Titans da Física
Os
dois tecnologistas de concreto que mais influenciaram minha forma de trabalhar
são, à sua maneira, um bom exemplo desta dicotomia aplicada à
engenharia. O primeiro deles é o próprio Babilônio, Gostava de ver o concreto
dentro da betoneira e, conforme o desenrolar do experimento, tomar decisões a
respeito do traço que irá prevalecer no final das contas. Encarava as surpresas
típicas da atividade de laboratório como algo natural e adaptava sua
expectativa a esta realidade. Não raro terminávamos o trabalho em uma conclusão
completamente diferente do planejamento inicial e uma grande porcentagem das
garantias de funcionamento do concreto lá no cliente era creditada ao instinto
e à experiência.
Tendo
“crescido” neste ambiente de liberdade experimental, fui surpreendido pelo
estilo Grego do segundo tecnologista que me comandou. Ele traçava uma previsão
completa dos resultados de cada experimento, baseada no estrito comportamento
matemático esperado para o concreto. E quando, por ventura, os resultados de
laboratório divergiam das previsões teóricas, ele decretava que o experimento
estava errado e precisava ser repetido. Se por ventura os resultados reais de
um determinado grupo de experimentos não representassem os pontos calculados
com uma determinada aproximação estatística, eram imediatamente condenados.
Distribuição normal de Gauss: Todo resultado experimental esta sugeito à variabilidade estatística e esta associado a um determinado grau de confiabilidade
Qual
deles é o mais correto? Depois de cinco anos trabalhando com cada um deles, eu
cheguei à conclusão que ambos estão muito certos. Voltando a falar de física,
podemos buscar dois exemplos onde o excesso de confiança nas predições teóricas
ou na qualidade dos experimentos levou a grandes equívocos. No primeiro
caso, a devoção de alguns cientistas ao princípio da localidade
(entre eles o próprio Einstein) os fez duvidar da validade da mecânica
quântica, com seu emaranhamento de partículas. Até os experimentos comprovarem
que o mundo permite sim que existam interações entre partículas subatômicas,
sem que haja contato direto entre elas. De outro lado, recentemente, um grupo
de experimentalistas noticiou para o mundo terem registrado Neutrinos viajando com velocidades
superiores à da luz, contrariando o princípio fundamental da Relatividade. Aí descobriu-se
que eles mediram a distância percorrida pelos Neutrinos usando GPS, um
instrumento baseado nas equações da relatividade, gerando um erro de referência
circular: usaram uma medida relativística para contrariar a relatividade!
Mas,
pedindo perdão pelo indigesto parágrafo acima, a mensagem que eu gostaria de
deixar é que eu aprendi a valorizar igualitariamente as duas correntes
filosóficas. Em meu método de dosagem eu passei a adotar um sistema iterativo
em que as previsões teóricas são usadas para ajustar os resultados de experimentos
preliminares, criando um novo modelo matemático para planejar o próximo experimento.
Repito este ciclo pelo número necessário de iterações que apresente resultados
experimentais estatisticamente coerentes com a previsão anterior. E aí, com as
garantias estatísticas a meu favor, tenho então um modelo matemático “ultra –
confiável” para definir os traços que serão usados na obra do cliente.
Exemplo de uma distribuição exponencial com bom grau de confiabilidade
Funciona
mais ou menos assim: No concreto, as propriedades e características básicas podem
ser inter-relacionadas com alguns parâmetros mais importantes, como o fator
água/cimento (a/c) por exemplo. E esse relacionamento pode ser expresso através
de uma aproximação, uma tendência exponencial. Por exemplo, se traçamos um
gráfico cartesiano com o fato a/c nas abscissas e os resultados de resistência
à compressão nas ordenadas, teremos pontos que teoricamente podem ser ligados
entre si por uma curva de desenvolvimento exponencial. É a chamada “Curva de Abrams”.
Mas o que ocorre, na realidade, é que os pontos nunca ficam exatamente em cima
da curva de tendência e há um modo de medir esse “erro”. Quando o erro é muito
grande, é só calcular ao contrário, redefinindo cada fator a/c e experimentando
novamente no laboratório. Traçado o novo gráfico o erro tende a diminuir muito
e, não raro, basta uma única iteração destas para se obter pontos
suficientemente próximos da tendência, tornando a função matemática confiável
segundo o modelo estatístico.
É
uma maneira de fazer coexistir a betoneira, o cone de slump e a prensa, com o
computador, a planilha e a equação logarítmica. A matemática nos ajuda a evitar
os erros de laboratório, criando condições de contorno mais ou menos rigorosas.
E o laboratório nos ajuda a reduzir a confiança exacerbada em nosso modelo virtual,
mostrando que o mundo real é sujeito a variabilidades. Aí percebemos que a
engenharia é na verdade uma saborosa mistura de ciência e arte, onde a
liberdade criativa trafega confortavelmente entre os muros traçados pela lógica
racional.
Estou estudando sobre o assunto.
ResponderExcluirCaro Cristiano, Estude com cuidado, porque se voce se viciar nisso, nunca mais vai conseguir parar! ;-)
ResponderExcluirArtigo excepcional...
ResponderExcluir