Buscar
  • Ph.D Nelson Jose Diaz Gautier

Otimização em engenharia


Em seu trabalho, o engenheiro sempre está buscando otimizar seus projetos ou atividades. Para isso, ele tem que lidar com variáveis como o tempo, o dinheiro, a performance física etc. Este desafio presente na indústria visa otimizar produtos ou processos com o intuito de reduzir tempos de desenvolvimento, melhorar a eficiência e/ou minimizar custos de fabricação. Essa necessidade da otimização em engenharia é evidenciada tanto nos projetos iniciais de um novo produto quanto na modificação do projeto de um produto existente. Realizar essa tarefa não é algo simples, principalmente devido à grande quantidade de opções que o projetista possui à disposição.


A abordagem tradicionalmente adotada em vários setores da indústria emprega a metodologia de tentativa e erro. Este procedimento escolhe novas configurações com base principalmente na experiência do profissional. Porém, muitas vezes, não é óbvia a escolha de um novo projeto, pois se trabalha com objetivos conflitantes, como por exemplo, reduzir a massa e aumentar a durabilidade simultaneamente. Assim, geralmente se obtém produtos ou processos satisfatórios, mas não ótimos.

Na literatura existe uma variedade de algoritmos de otimização, tais como os métodos baseados em derivada, métodos heurísticos, como o Simplex, e métodos evolutivos, como os algoritmos genéticos. A escolha por um desses métodos depende do tipo de variáveis do projeto e do tempo disponível para a otimização.

Assim, os elementos básicos de otimização em engenharia, são: variáveis, funções objetivo e restrições. As variáveis são os parâmetros do projeto que se tem liberdade para modificar, por exemplo, variáveis geométricas (espessura, largura, raios de curvatura etc.); variáveis de operação (velocidade de entrada, carregamento, temperatura etc.); e outras como materiais, trajetórias etc.

As funções objetivo representam o modelo físico para resolver, no qual vão-se minimizar ou maximizar variáveis como eficiência, custos, tensões, perda de carga, atrito, troca térmica etc. Essas funções são as forças motrizes da otimização, que podem ser uma ou mais. Finalmente as restrições são os requisitos que devem ser cumpridos pelos novos projetos. Podem ser exigências provenientes de normas, de viabilidade ou de fabricação.

Nos problemas práticos geralmente não é possível ter uma expressão simples do modelo, assim as variáveis de saída precisam ser calculadas numericamente, por meio de rotinas computacionais ou softwares específicos que simulem os fenômenos físicos do projeto, ou experimentalmente. Estes modelos são chamados de funções caixa preta. Diferentes software são usados para resolver equações complexas que definem o modelo e são computacionalmente custosas. Este custo computacional é incrementado quando a solução desejada tem que ser robusta ou o problema é multidisciplinar.

Sendo assim, nas últimas décadas, os avanços dos recursos computacionais têm permitido aos cientistas desenvolver modelos de simulação computacional de fenômenos físicos cada vez mais complexos e com maior fidelidade. Esses modelos são geralmente definidos por um conjunto de procedimentos que visam resolver numericamente as equações governantes ou modelos empíricos ou semi-empíricos complexos do problema analisado, dentro de uma “caixa preta”, quando o usuário pode até desconhecer certos procedimentos e parâmetros internos do modelo, cuja resolução é requerida. Essa resolução pode envolver complexas discretizações do domínio geométrico e funcional do espaço analisado devido aos parâmetros internos do modelo, cuja resolução requer a discretização geométrica do espaço analisado. O procedimento básico consiste em definir variáveis de projeto que têm influência significativa no problema, como dados de entrada no modelo físico, ou seja, no modelo “caixa preta”, e então obter as saídas que resultam da solução do problema. Em geral, o uso desses modelos traz consigo um alto custo computacional, que se torna ainda mais relevante quando as saídas são utilizadas para se resolver problemas de otimização, principalmente aqueles com múltiplos objetivos (multi-objetivo). Nessas situações, os modelos fazem parte da avaliação recorrente de uma ou várias funções objetivo e de restrição, cujas descrições analíticas e de suas derivadas geralmente não estão disponíveis. Assim, são necessários métodos de solução livres de derivadas.


Neste contexto, os modelos substitutos, ou metamodelos, têm sido usados com frequência como aproximações relativamente mais rápidas dos modelos computacionalmente custosos. Basicamente, o uso dessa metamodelagem se dá de duas formas. Na primeira delas, a metamodelagem fica baseada em um banco de dados estanque, contendo uma quantidade significativamente alta de pontos de avaliação das funções custosas. Esse banco de dados é montado previamente e os metamodelos construídos permanecem inalterados ao longo do processo de otimização. Não há dessa forma como se avaliar a priori, se o banco de dados é excessivo ou insuficiente para se atingir uma otimização satisfatória. Na segunda forma de emprego, a metamodelagem parte de um banco de dados inicial, com menor quantidade possível de pontos de avaliação. Realiza-se, então uma busca orientada por melhores soluções do problema, através de um processo iterativo. Em cada iteração, o processo iterativo consiste na construção de metamodelos provisórios de cada função objetivo ou de restrição, que são então aplicados na solução de um problema auxiliar de otimização para fazer a escolha do(s) novo(os) ponto(os) que irão atualizar o banco de dados para a construção de novos metamodelos provisórios na próxima iteração, e assim sucessivamente, até que a convergência seja atingida.

Outra alternativa mais eficiente do ponto de vista da acurácia dos resultados são o Modelos de alta fidelidade que geralmente representam o comportamento do sistema analisado com uma precisão aceitável para a aplicação pretendida. Esses modelos geralmente são computacionalmente custosos e suas múltiplas avaliações dentro de sistemas complexos, como propagação de incerteza, análise de sensibilidade ou otimização, requer avaliações repetidas do modelo em locais diferentes no espaço de projeto. A solução destes sistemas geralmente torna-se inviável em tempo computacional. Entanto os modelos de baixa fidelidade são mais baratos e menos precisos. Eles são obtidos, por exemplo, por redução da dimensionalidade do problema, linearização, modelos físicos simplificados, discretização de domínios computacionais menos refinadas, resultados parcialmente convergentes, etc (Fig. 1).

Figura 1. Diagrama de alta, média e baixa fidelidade



#Otimização #DesenvolvimentoProdutos #EngenhariaReversa #Engenharia

75 visualizações0 comentário

Posts recentes

Ver tudo