A concepção de Cenários (II)

Técnicas e Métodos de Prospectiva Apresentadas pela Escola Superior de Guerra

 

Neste capítulo julgamos interessante comentar algumas mais conhecidas técnicas de prospectiva, omitindo maiores comentários sobre as bases matemáticas e sobre os sistemas computacionais em que se amparam, uma vez que imaginamos como público alvo neste trabalho Analistas de Política e Estratégia, pois serão os que naturalmente, desenvolverão estudos prospectivos. São pessoas de grande cultura geral mas que, em sua maioria, conhecem informática apenas como usuários.

Apresentamos, a seguir, algumas técnicas de ajuda à criatividade, de avaliação e de análise multicritérios.

2.1 - Técnicas de Ajuda à Criatividade

2.1.1 Brainstorming

 

Em seu sentido amplo é basicamente um exercício de criatividade, buscando selecionar em um conjunto de idéias, oriundas de um grupo de técnicos de determinada área as melhores idéias. Essas idéias referem-se, na Prospectiva, a eventos futuros. É uma discussão em grupo, coordenada por um especialista com qualidades de liderança. O número de cenários resultantes dependerá do grau de consenso do grupo.

Embora não seja uma condição necessária e suficiente, a falta de estatísticas fidedignas e a escassez de tempo para a tomada de decisão conduzem ao emprego desta técnica, que em termos prospectivos permite a geração de cenários alternativos.

O Brainstorming pode ser sintetizado em três etapas:

  • apresentação do problema e sua interpretação;
  • reflexão livre do grupo sobre todas as idéias que surgem, relacionadas com a resolução do problema; e
  • atenção a todas as idéias que surgem, mesmo quando pareçam irrelevantes em uma análise preliminar.

A discussão dirigida, processo didático utilizado pela ESG durante a fase doutrinária de seus cursos, dado o caráter dinâmico da doutrina pode ser considerada na projeção dos debates um particular "Brainstorming" sem a preocupação do consenso em seu sentido absoluto.

2.1.2 Método da Análise Morfológica

Este método consiste, basicamente, na decomposição de um problema em vários elementos, identificando as várias formas e valores que estes elementos podem assumir , que são os chamados atributos. Posteriormente, sintetizam-se todas as soluções alternativas pela combinação dos atributos de diferentes maneiras.

Desse modo, pode reduzir o número de alternativas rapidamente, ao descartar as combinações irrealizáveis e ou incompatíveis. Os atributos são escritos em forma de matriz para simplificar o processo.

2.1.3 Sinéctica

É um processo de trabalho em grupo para geração de idéias criativas a respeito de um determinado problema usando-se, principalmente, analogias. É usado para:

  • identificação de possíveis soluções para um dado problema; e
  • transferência de conhecimentos e experiências de uma tecnologia conhecida para outra que se esteja pesquisando.

Quando um grupo de pessoas utiliza a sinéctica para a solução de um problema, as discussões são realizadas com base em dois conceitos: "fazer o estranho familiar" e "fazer o familiar estranho", ou seja, identificar coisas semelhantes entre situações diferentes.

A sinéctica depende, principalmente, de encontrarem-se analogias para uma situação nova e estranha, de modo a torná-la familiar. Vários tipos de analogias são usadas durante uma seção de sinéctica comparando-se situações paralelas nos diferentes campos de atividade.

2.1.4 Técnica de Grupo Nominal

Trata-se de um processo estruturado nas experiências, habilidades e sentimentos dos membros participantes do grupo. Os membros trabalham independentemente, mas na presença dos demais. O líder formula uma pergunta que todos devem responder e que só serão discutidas quando todos tiverem emitido suas opiniões. Das discussões sairão os pesos que comporão uma escala de prioridades.

A Técnica de Grupo Nominal foi desenvolvida em 1968 por André L. Dellbecq e Andrew Van Der Vem.

2.1.5 Questionários e Entrevistas

São formas de gerar idéias, opiniões ou informações de um determinado alvo da população, que auxiliam a criatividade na solução de problemas e que são demais conhecidas para merecerem maiores comentários. Os questionários são utilizados em conjunto com o método Delphi.

2.1.5 Utopia

É a maneira mais simples de se proceder a uma previsão. Trata-se, na realidade, de um livre exercício de imaginação. Estabelece-se um "ideal" futuro, sem considerar tendências ou quaisquer restrições, e compara-se esse ideal com o presente.

Não existem relações ou procedimentos perfeitamente definidos, quando um indivíduo constrói uma utopia, também conhecida como discurso individual relativo a um estado futuro de um sistema. A utopia constitui muito mais uma opinião do que uma técnica. É mais intuitiva do que subjetiva. O analista deve ser um "expert" no campo em que constrói a utopia, para que o ideal considerado possa representar de fato um objetivo a alcançar.

 

2.2 - Técnicas de Avaliação

 

 

2.2.1 - O Método Delphi

 

Este método foi elaborado em 1964 por Olaf Helmes, Dalkey e a equipe associada na "Rand Corporation", embrião do maior centro de estudos do mundo, situada em Santa Mônica, na Califórnia. A denominação Delphi, dada a este método, foi adotada ao cooptar a imagem do Oráculo de Delphos, lugar sagrado e o mais reverenciado da Grécia antiga, onde o filho de Zeus, Apolo, o oráculo, anunciava as suas infalíveis previsões sobre o futuro.

O Delphi é um método resultante de uma variação do "Brainstorming", objetivando um consenso relativo de especialistas sobre a época em que alguns eventos selecionados devem ocorrer. A manifestação dos peritos é feita de modo isolado, evitando-se o confronto direto de opiniões em reuniões de grupo. O consenso relativo é obtido através de um processo de aproximações sucessivas.

A etapa inicial deste método é a especificação dos eventos futuros possíveis, para os quais se deseja uma previsão sobre o horizonte de ocorrência. Em geral, procede-se, a seguir, à elaboração de um questionário que lista os eventos, deixando em aberto a época de ocorrência possível. Selecionados os peritos, os questionários são a eles remetidos.

Após o recebimento das respostas aos questionários, elas são processadas e verifica-se o grau de consenso relativo, mediante da dispersão das respostas em torno da mediana considerado o ponto consensual. Amplia-se, então, o questionário, com o acréscimo dos resultados obtidos. Cada perito, conhecendo as opiniões da maioria, reformula ou não sua opinião, justificando a negativa quando ela ocorrer.

O processo descrito é repetido até que se atinja um grau de consenso relativo considerado satisfatório, sem que exista a imposição de um consenso absoluto.

Procede-se, finalmente, à elaboração de um relatório final, que contém a previsão do que, e quando, ocorrerá no futuro.

O método possui a deficiência de não levar em conta a interação entre os eventos. Para completar esta lacuna, surgiu o método de impactos cruzados.

 

2.2.2 - Técnicas de Impactos Cruzados

 

Este método, em realidade, engloba uma família de técnicas que visam avaliar a influência que a ocorrência de um determinado evento traria sobre a probabilidade de ocorrência de outros. Ou seja, leva em conta a interdependência entre várias questões formuladas, possibilitando que o estudo que se esteja realizando adquira um enfoque mais global, mais sistêmico e, portanto, mais de acordo com uma visão prospectiva.

Dentre das diversas Técnicas que se enquadram sob o título genérico de impactos cruzados, vamos nos referir às do tipo SMIC, que foram propostas em 1975, por Michel Godet e Olivier Ruyssen em artigo publicado na "Revue de L'Energie", intitulado "Les Scénarios du Pétrole off-shore une méthode, des resultats".

Esses autores desenvolveram um programa - SMIC (Sistema e Matriz de Impactos Cruzados) - que corrige automaticamente as avaliações subjetivas emitidas por um grupo de especialistas, sobre as probabilidades não condicionais e condicionais, a respeito de algumas hipóteses fundamentais que caracterizavam o meio ambiente internacional da época, e que interagiam com a atividade de exploração e produção de petróleo na plataforma continental.

Essas técnicas têm o objetivo de buscar e hierarquizar os cenários mais prováveis entre todos aqueles cenários possíveis. Utilizam a opinião dos peritos, após as fases que visam a convergência, como previsto no método "Delphi", para questionar-lhes, posteriormente, os impactos que teriam a ocorrência de cada evento sobre os demais.

Trata-se, portanto, de uma maneira de estabelecer-se qual é a interdependência entre todos os aspectos de um problema, verificando como a ocorrência ou não de um determinado acontecimento pode aumentar ou diminuir a probabilidade que outros eventos tenham de ocorrer. Assim, as probabilidades iniciais obtidas por intermédio do "Delphi" podem ser modificadas de acordo com o nível de influência que cada evento sofra ou exerça sobre os demais. Ou seja, passa-se do campo das probabilidades absolutas para o campo das probabilidades condicionais.

Por causa da flexibilidade da análise de Impactos Cruzados a técnica pode ser aplicada a uma imensa variedade de problemas, daí porque tornou-se amplamente difundida na Prospectiva e tem sido usada em estudos das oportunidades de introdução de produtos, de mercado, estabelecimento de política externa, formulação de objetivos institucionais, na comunicação, defesa, ecologia, educação, recursos naturais e em muitos outros assuntos.

A técnica de impactos cruzados pode ser descrita, sucintamente, do seguinte modo:

  • através de uma análise conjuntural e de uma pesquisa retrospectiva, que possa identificar tendências eventuais, caracteriza-se o estado presente de um sistema e define-se um conjunto de fatos ou variáveis que podem condicionar seus estados futuros. Identifica-se, a seguir, fatores e agentes exógenos que podem alterar o processo evolutivo. De posse desses elementos, é possível elaborar uma lista preliminar de eventos capazes de gerar um estado futuro. A lista pode resultar de um "Brainstorming" em que são imaginadas as possíveis rupturas do "Status quo" e das tendências detectadas, dentro de um horizonte fixado;
  • um grupo de técnicos atribui individual e independentemente a cada evento um probabilidade de ocorrência e um indicador quantitativo de seu conhecimento sobre o evento considerado. A média ponderada, em que os pesos são as auto avaliações, fornece a probabilidade incondicional de cada evento. A seguir, dentro de uma escala numérica elaborada pelo grupo, cada técnico atribui valor que caracteriza a importância do evento na conjuntura global. A média aritmética simples desses valores, multiplicada pelas probabilidades incondicionais, fornece um índice de pertinência que permite a ordenação dos eventos segundo a sua importância decrescente. É possível, então, elaborar uma lista final de eventos geradores de cenários futuros, abandonando-se eventualmente os que apresentarem índices menores de pertinência. O método "Delphi" pode ser utilizado nesta etapa;
  • os eventos selecionados são dispostos em uma configuração matricial e em cada cruzamento, salvo a diagonal principal que é inutilizada, cada técnico do grupo coloca um peso (valor numérico em uma escala ajustada pelo grupo) que representa o impacto de cada evento coluna sobre a probabilidade incondicional do evento linha. A matriz média de impactos cruzados é obtida com o cálculo da média aritmética simples dos impactos individuais. Um impacto nulo significa que não há condicionamento da probabilidade, ou seja, os eventos são independentes. Valores positivos e negativos na escala permitem dar sentido (incremento ou redução) à alteração da probabilidade incondicional de cada evento, quando se considere o impacto da ocorrência de cada um dos outros;
  • a matriz média de impactos cruzados e as probabilidades incondicionais dos eventos permitem a avaliação das probabilidades condicionais de cada evento, isto é, as probabilidades condicionadas à ocorrência de cada um dos outros. É nesta etapa que, na dependência do número de eventos, utiliza-se o suporte da computação eletrônica através de um programa produto, considerando a definição de probabilidade condicionada. Os cenários obtidos são, a seguir, relacionados em ordem decrescente de probabilidade de ocorrência;
  • procede-se à descrição dos cenários relacionados, com a indicação dos eventos que os constituem e suas probabilidades, interpretando-se o significado de cada um.

 

2.2.3 - Técnicas da Extrapolação de Tendências

 

A Prospectiva por meio da extrapolação de tendências tem sido como técnica, representada por causa de funções matemáticas apropriadas, bastante empregada na atualidade. Embora outras técnicas de maior sofisticação venham sendo utilizadas na previsão do futuro, a extrapolação de tendências propicia fundamentos conceituais e metodológicas praticamente imediatos, e constitui importante instrumento analítico para fenômenos simples ou complexos.

A análise de tendências baseia-se no exame empírico de qualquer fenômeno cuja mensuração se repete com o decorrer do tempo, sejam seguidos, horas, meses, anos, etc., permitindo a identificação histórica de seu fluxo.

A tendência em si mesma é refletida como uma série temporal de valores que aumentam e ou diminuem com certa regularidade no período de tempo considerado.

O pré-requisito para a aplicação dessa técnica é a disponibilidade de séries temporais de dados relativos ao comportamento do fenômeno em exame.

A instrumentação matemática ou estatística que ampara a prospectiva na representação das curvas de tendência se apoia em:

  • estabelecimento de médias móveis centradas em tempos definidos, sejam dias, meses, anos etc.;
  • parâmetros de ensaios prévios que, utilizando o algoritmo das exponenciais, vão por tentativa, diminuindo o intervalo de aproximação com a função matemática representativa do comportamento das variações anteriores do fenômeno, num processo de retroação para, posteriormente, poder projetar a curva de tendência para o futuro;
  • regressão linear como instrumento mais rigoroso de descrição e projeção de uma tendência, proporcionando a representação dos dados antes dispersos, numa reta de normalização dos valores em uma série, utilizando o critério estatístico do método dos mínimos quadrados;
  • regressão não-linear, empregada quando a série de dados do fenômeno não oferece condições para sua representação linear ou proximamente linear. Isto é, a plotagem dos dados, pelas características de sua dispersão, fica sujeita a uma escala logarítmica cujo emprego pode linearizar a regressão. A regressão não - linear é um poderoso artifício para o tratamento de uma ampla variedade de fenômenos, em que o emprego de equações de transformações permite, por anamorfose, linearizar a representação da tendência para o futuro;
  • emprego de curvas-envelopes que dão forma à plotagem de curvas relevantes de subtendências de determinado fenômeno, consideradas, separadamente, pelo tempo. A curva que tangência as curvas de subtendência é a curva-envelope.

Torna-se claro que a Técnica de Extrapolação de Tendências para a predição do futuro, tem ainda um rico arsenal de instrumentos nas séries temporais de univariação e em outras séries de tempo, ao se apoiar em curvas representativas dos fenômenos historicamente considerados.

Deve-se ter em conta que, qualquer que seja o período do futuro, pode-se fazer a extrapolação, desde que o período histórico examinado forneça dados substanciais à modelagem da curva de tendências.

As vantagens da Técnica da Extrapolação de Tendências são em princípio: custos de execução menores do que outras técnicas de pesquisa; dados requeridos para uma informação serem mínimos por prenderem-se à generalização de uma única e simples variável compilada estatisticamente; conhecimento de maior profundidade e amplitude da história do problema em tela; apresentação mais rigorosa e objetiva para a prospectiva diante da relação causal com outros fenômenos, implicitamente considerados na representação gráfica da curva.

 

2.2.4 - Técnica dos Modelos de Simulação

 

Nos anos mais recentes, os modelos de simulação tornaram-se uma das técnicas de grande aceitação para a previsão do futuro.

Utilizando instrumental matemático, desde o mais rudimentar e simplificado, até o de infinita complexidade e abrangência, estes modelos cobrem um gigantesco elenco de atividades e fenômenos que são próprios aos homens e à natureza.

A construção de modelos envolve uma atitude direcionada para a informação. Em qualquer momento do nosso pensamento estamos trabalhando conceitos que, embora não sejam o mundo real, são representações do mundo que nos cerca e, por isso, classificam-se na ordem dos modelos mentais.

Conceituando o modelo de simulação, pode-se afirmar que ele imita e representa o sistema sob estudo na forma de um conjunto de variáveis matemáticas e um número explicitado de suas inter-relações.

O objetivo de um Modelo de Simulação é o de reproduzir o comportamento histórico de um sistema e com essa base projetá-lo para o futuro.

A metodologia, em termos gerais, compreende:

  • identificação dos aspectos causais do sistema que produz o seu comportamento.
  • conhecimento das categorias técnicas e específicas, apropriadas ao regime de funcionamento da estrutura do sistema.
  • convir que uma apreciação estática do modelo representa a sua situação em determinado ponto do tempo.
  • admitir que a apreciação dinâmica do modelo reflete o comportamento do sistema na sucessão das variações discretas ou contínuas no decorrer do tempo.

As principais razões do emprego dessa metodologia indicam que o modelo que lhe corresponde se torna:

  • um dispositivo para a predição porque dele derivam futuras conseqüências das suposições feitas no presente;
  • um instrumento que permite avaliar a operação de um sistema novo, sem precisar construí-lo, ou de um sistema já existente, sem pertubá-lo, sob uma variedade de condições;
  • um instrumento que permite compreender como os vários componentes de um sistema interagem entre si e sua influência no desempenho global do sistema.

A simulação é uma metodologia com alto potencial de utilização. Sua aplicação requer conhecimentos específicos, porém não complexos.

 

2.3 - Técnicas de Análise Multicritérios

 

Trata-se de um conjunto de técnicas e métodos cujo objetivo é auxiliar os analistas de Política e Estratégia nas decisões referentes a um problema, quando se tem que levar em conta múltiplos e diversos pontos de vista. Sua aplicação permite priorizar, ou reduzir, os vários fatores que devem ser levados em consideração.

A distinção entre o auxílio multicritério à decisão e as metodologias tradicionais de avaliação é o grau de incorporação dos valores do decisor nos modelos de avaliação. É preciso aceitar que a subjetividade está sempre presente nos processos de decisão. Nesse sentido, busca-se construir modelos que legitimem a elaboração de juízos de valor, juízos estes necessariamente subjetivos, ou seja, a estrutura de valores dos decisores associado a cada critério e assim permitir que as alternativas sejam sugeridas.

A estruturação do modelo é fundamental em um processo de apoio à decisão, que tem um caráter misto entre a ciência e a arte. O caráter provém da ausência de métodos matemáticos para conduzir a estruturação. Isto implica que é impossível conceber um procedimento genérico de estruturação cuja aplicação possa garantir a unidade e validade do modelo concebido.

O trabalho de estruturação visa à construção de um modelo mais ou menos formalizado, capaz de ser aceito pelos decisores como um esquema de representação e organização dos elementos primários de avaliação, e que possa servir de base à aprendizagem, à investigação, à comunicação e à discussão interativa com e entre os decisores.

Uma boa metodologia não explora só as soluções, explora também o decisor, à medida que o auxilia na busca da decisão explicitando as suas preferências.

Decisões econômicas, industriais, políticas ou sociais, são decisões multicritérios. Uma firma nunca irá comprar um equipamento apenas baseado no preço ou custo; qualidade e outros critérios deverão ser considerados. Os decisores também não seguirão sempre o mesmo caminho, o mesmo equipamento não será comprado por duas firmas que existam na mesma cidade e enfrentem problemas semelhantes. Cada decisor aloca uma importância relativa diferente para cada critério. Os problemas multicritério não podem ser apenas resolvidos sob análise matemática ou econômica. Podemos propor dois caminhos distintos para solução do problema:

  • agregar todas as alternativas em uma função utilidade, ou seja, agregar todos os critérios em uma única função de utilidade. Entretanto, este caminho não será válido se considerarmos a seguinte situação: uma empresa decide contratar um engenheiro com conhecimentos de eletricidade e mecânica; dois candidatos aparecem, um com média global 8 (oito), sendo a média de eletricidade 6 (seis), e a média mecânica 10 (dez); o segundo também com média global 8 (oito), teve média em eletricidade 10 (dez) e em mecânica 6 (seis) a função utilidade é igual para os candidatos.
  • utilizar uma metodologia que leve em conta a importância relativa que o decisor atribui a cada critério, no caso, mecânica, eletricidade e média global. Esta segunda possibilidade parece ser a mais adequada.

A melhor maneira de se obter sucesso em uma escolha é a busca da solução ótima, através de taxas de compensação ou relação de troca entre as medidas de desempenho dos diversos projetos com relação aos critérios de escolha. A grande dificuldade encontrada é a complexidade do mundo. Isolar um problema de grande escala do resto do mundo é uma tarefa extremamente difícil, e é o que tentamos fazer na nossa realidade, e o fazemos simulando o contexto ambiental. Este mundo real normalmente cria dificuldades para realizarmos uma análise multiatributo, principalmente pela complexidade econômica, pelos problemas sociais envolvidos e, como já nos referimos, pela grande complexidade dos critérios envolvidos.

Temos, assim, de ter o cuidado para não criarmos uma simulação que nos leve a uma irrealidade, pois, do contrário, obteremos uma solução sem nenhum resultado prático. Para conseguirmos um bom resultado, será importante buscarmos um conhecimento perfeito ou o mais perfeito possível, das conseqüências de nossas alternativas. Estas conseqüências deverão ser medidas a curto e a longo prazo.

A solução alcançada sempre ocorrerá com critérios conflitantes, onde o ganho de um critério poderá causar uma perda em outro. Teremos de escolher a solução final, levando-se em conta o compromisso das diversas relações de troca intermediárias dos procedimentos adotados. A solução eficiente ou ótima de Pareto, será aquela que puder ser obtida de forma que atinja amplamente todos os critérios e não cause um decréscimo simultâneo em nível inaceitável, em qualquer dos demais critérios que estão sendo avaliados.

A análise multicritério vem sendo utilizada com bastante sucesso no tratamento dos problemas de tomada de decisão envolvendo critérios subjetivos.

Os métodos de multicritérios que abordaremos a seguir são executados em duas etapas sucessivas:

  • na primeira, se classificam os diversos aspectos do problema, segundo diferentes critérios, considerados um de cada vez;
  • na segunda, se agregam as classificações obtidas, ou por ponderação (caso do método dos "exámenes"), do método "Pattern ou do método do Centro de Prospectiva e Avaliação do Ministério de Defesa Francês (C.P.E) ou por uma regra que permita comparar os diversos aspectos, considerando certo níveis de concordância e discordância ( Método "Electre" e seus derivados).

 

2.3.1 - O Método dos "Exámenes"

 

É um método de seleção em que os vários aspectos do problema, ou critérios, são considerados como as diversas provas de um concurso. Há, portanto, necessidade do enquadramento dos vários dados disponíveis dentro de cada critério, para, em seguida, ponderar as suas importâncias, de acordo com o peso que se tenha atribuído para cada critério. Calcula-se a média ponderada final de cada aspecto, ou dado considerado, classificando sua importância de acordo com a média final obtida. É como se, em um concurso, atribuíssemos pesos diferentes às diversas provas que constituem o exame.

 

2.3.2 - O Método "Pattern"

 

O método Pattern (Planning Assistent Through Technical Evaluation of Relevance Numbers) surgiu em 1963, quando a Honeywell Corporation o utilizou para o Programa de Pesquisa Espacial e Militar dos Estados Unidos da América. É a reunião das Técnicas de Utopia, Cenários e Previsões baseadas em Análise de Séries Temporais. É uma das mais conhecidas aplicações da Árvore de Relevância.

Este método, à base de exaustão, tenta desenvolver todas as alternativas e opções possíveis para uma previsão de futuro, utilizando tecnologia apropriada, em que os ramos da árvore correspondem a decisões críticas que excluem outras importantes opções, previamente consideradas.

A árvore é útil, não somente por organizar os fatores de influência, na problemática em questão, mas, também, por estimular à imaginação e o aprofundamento no exame de elementos cruciais dessa tecnologia, revelando pontos de possíveis impactos e conseqüências.

A aplicação do método Pattern requer consideráveis recursos humanos e computacionais.

 

2.3.3 - O Método "CPE"

 

É um método já utilizado e desenvolvido pelo Centro de Prospectiva e Avaliação do Ministério de Defesa da França. Também se baseia, como o método "Pattern", em uma "Árvore de Relevância, porém de aplicação mais simples, ao permitir, por uma série de classificações solicitadas aos peritos, juntar dois critérios por vez, através de uma regra combinatória. A lógica é bastante semelhante ao método "Pattern".

 

2.3.4 - O Método "Electre"

 

A modelagem de preferências é utilizada em métodos da Escola Francesa de Apoio Multicritério à Decisão. Esta escola tem como métodos mais difundidos os pertencentes à família Electre (Elimination ET Choix Traduisant de la Realité), que foram desenvolvidos por Bernard Roy, durante a década de 70.

A grande importância do método deve-se ao fato de permitir modelar as opiniões dos decisores estratégicos e, também, conjugar características matemáticas (parâmetros quantitativos) com características da subjetividade humana (parâmetros de mensuração qualitativa), para obtenção de resultados em apoio ao processo decisório.

A modelagem de preferências se baseia na comparação de algumas ações, realizadas duas a duas, da seguinte maneira:

  • preferência por uma das ações;
  • indiferença entre as ações;
  • impossibilidade de comparação.

Esta modelagem torna possível agrupar os vários aspectos de um problema em conjuntos. Mas para se chegar a isso devem-se estabelecer alguns parâmetros de concordância e de discordância, cujas definições demandam extensas explicações matemáticas e que serão omitidas porque fogem ao objetivo deste trabalho.

 

2.3.5 - O Método "AHP"

 

É um método segundo o qual o problema é decomposto em níveis hierárquicos, facilitando, assim, sua estruturação e conseqüente avaliação. Determina, de forma clara, através da síntese dos valores dos peritos escolhidos, uma medida global para cada uma das alternativas, classificando-os ao final.

Após a construção da hierarquia, cada perito fará a comparação par a par dos elementos de um dado nível hierárquico, criando-se uma matriz de decisão onde ele representará, a partir de uma escala pré-definida, sua opinião sobre os elementos, comparados entre si, sob a ótica de um elemento do nível imediatamente superior.

Assim, a chamada "Escala Fundamental de Saaty" estabelece prioridades entre duas atividades, em uma escala de 1 a 9, onde 1 significa que contribuem igualmente para o objetivo, e 9 traz a evidência do favorecimento de uma atividade em relação à outra no mais alto grau de certeza. Através de uma série de regras matemáticas que serão omitidas, o método permite que cheguemos a uma ordenação global de valor.

O método AHP (Analytic Hierarchy Process) foi desenvolvido na década passada por Thomas L. Saaty, e mais tarde aperfeiçoado pelo próprio Saaty, auxiliado por Vargas e Wendell com a introdução do AHP referenciado

 

2.3.6 - O Método "Macbeth"

 

O método Macbeth (Measuring Attractiveness by a Categorical Based Evaluation Thecnique), apresentado em 1994 pelo professor Bana e Costa, em uma conferência internacional na Universidade de Coimbra, Portugal, é uma das mais modernas metodologias de apoio multicritério à decisão e, segundo seus idealizadores, busca minorar os inconvenientes de outros métodos, com propósitos similares, como os Electre e AHP, através de uma abordagem interativa que facilita a construção de escalas cardinais para a quantificação dos valores de julgamento.

O método se baseia, na fase de estruturação, em critérios de pontos de vista e em níveis de impactos, e, na fase de avaliação, na quantificação de cada nível de impactos sob os vários pontos de vista. O método vale-se de programação linear para identificar os níveis de escala numérica cardinal que melhor conciliem os juízos expressos.

 

Fonte: Escola Superior de Guerra - ESG

Texto extraído da Internet (On Line) disponível no endereço:

http://www.esg.br/dsje/monografias/mon_0001.html#p00

Consultado em 25/06/2001.