Mudança nos Perfis dos Empregados e Gerentes Diante das Novas Tecnologias
Mudança nos Perfis dos Empregados e Gerentes Diante das Novas Tecnologias
Autor: Pedro Luis Kantek Garcia Navarro
Palestra apresentada por Pedro Luis Kantek Garcia Navarro, ao participar como representante da CELEPAR de painel do mesmo nome, no III infotel, Encontro de Informática dos empregados da TELEPAR, em outubro de 1995.
Introdução
Procurando ser fiel ao título do painel, este texto está dividido em 2 grandes partes: na primeira (que abrange o capítulo 2), fala-se sobre (algumas) tendências em tecnologia de informação. Na segunda parte (os capítulos 3, 4, 5, 6 e 7), fala-se sobre empregado, gerente e empresa. Há, claramente, uma divisão não eqüitativa entre as partes. De fato, o capítulo 2 ocupa quase 70% do texto. Isso foi proposital, como uma tentativa de levar ao público ouvinte maiores informações sobre as tendências citadas, uma vez que elas extrapolam um pouco o senso comum e precisam de mais detalhe para serem entendidas.
Ao final, os leitores dirão se essa tentativa foi bem sucedida, ou mesmo útil. De qualquer maneira, meus agradecimentos em meu nome e no da CELEPAR pelo honroso convite para estar aqui no INFOTEL.
Evolução da Tecnologia da Informação
Em lugar de fazer um retrospecto do que ocorreu nos últimos 30 anos na TI (tecnologia da informação), gostaria de especular a respeito do que deverá ocorrer nos próximos anos.
Ressalte-se que é um tremendo risco essa atitude. Por exemplo, quem, há 10 anos, iria sequer cogitar da importância de um programa chamado Windows ? Ou, pior ainda, quem imaginaria o papel desempenhado pelo micro de baixo custo ?
Mas, as dificuldades não devem nos assustar. Vamos ver algo do que se está falando, estudando, pesquisando e desenvolvendo nos grandes laboratórios de ponta.
Antes, uma observação importante: estas são apenas algumas tendências. Certamente a lista não é exaustiva e importantes questões foram deixadas de lado (engenharia de software, metodologias de desenvolvimento, shells agregando IA para melhoria de interface, multimídia, sistemas temporais, etc.). Mas, voltando à nossa proposta (de algumas tendências), pelo que se pode ler por aí, terá boa chance de acertar, quem disser que no futuro nós teremos:
Microprocessadores mais Velozes e Baratos
Comecemos verificando que o desempenho de um microprocessador (como o P6, da Intel) é hoje 25.000 vezes melhor do que o seu ancestral 4004. Na verdade, a história da TI (tecnologia da informação) registra dois eventos importantes: o conceito de programa armazenado (devido a Von Neuman, nos anos 40) e o conceito do microprocessador (Intel, 1971). Construir um microprocessador é como fazer uma pizza. Começa-se com uma camada de massa e sobre ela vão sendo dispostos ingredientes (transistores, conexões, ...), ciclo este que é repetido mais de 20 vezes. Há problemas com a miniaturização crescente: cresce a probabilidade de defeito devido a um único componente. Mas, a engenharia de produto não deixa de buscar remédios. Afinal o mercado é convidativo. Se a tendência de miniaturização continuar, o tamanho de um único gate (componente lógico com 2 estados) deverá se aproximar do tamanho de uma molécula lá pelo ano 2030. A maior parcela limitante: Cada fator de dois em miniaturização aumenta o custo de manufatura do chip em cinco vezes. Em algum momento, a busca de componentes menores será limitada mais pelo aspecto econômico do que físico. Mas, há espaço para diminuir bastante ainda. Nos anos 80, estimava-se que o desempenho de um microprocessador crescia 35% a.a. Hoje, ele cresce a 55% a.a. (4% a.m.). Para encerrar, uma comparação: o 4004 tinha 2.300 transistores e o P6 tem 5.5 milhões deles.
Pipeline
Um conceito chave é o "pipelined". Imaginemos uma pessoa precisando lavar suas roupas em casa. Primeiro lavar (1:30 hs) depois secar (mais 1 hora). Se tivermos uma única carga de roupa, não tem jeito: o processo todo durará 2:30 hs, fenômeno conhecido como paradoxo do "pipeline". Mas se forem milhares de cargas de roupa, adiantará muito ir a uma lavanderia automática (que contenha muitas lavadoras e secadoras) e fazer o processo de maneira "pipeline", ou seja enquanto uma máquina lava a segunda carga de roupa, uma secadora está secando a primeira. Exemplificando com 100 cargas de roupa, o primeiro processo levará 250 horas, enquanto o segundo 151 horas.
Em um microprocessador, cada instrução que é executada é dividida em várias (tipicamente de 5 a 10) fases. O conceito de pipeline atua aí. Enquanto se está na fase k da instrução corrente, o processador está na fase k-1 da próxima instrução e na fase k-2 da subseqüente e assim por diante.
A velocidade de um processador é medida pela quantidade de ciclos completos que ele executa por segundo. Assim, um bom processador comercial disponível hoje tem 50 MHz, o que significa que ele executa 50.000.000 de ciclos por segundo. Já há microprocessadores com 8 estágios de pipeline que conseguem produzir taxas de 300 Mhz.
Supercaling
Usando o conceito batizado meio "chochamente" (faltou palavra melhor) de superescalar, pelo qual mais hardware é agregado ao processador, permitindo um certo grau de paralelismo às operações que estão sendo "pipelined", consegue-se aumentar a velocidade. Na nossa analogia com a lavagem de roupa, pode-se imaginar uma imensa lavadora, capaz de processar 20 cargas de roupa ao mesmo tempo. Já há processadores com fatores de "superscaling" de 3 a 6. Juntando os dois conceitos, pode-se imaginar uma máquina de ciclo básico de 50 MHz, com fator de pipeline de 8 (250 MHz), e fator de superscaling de 4, que atinge 1 GHz, ou que é capaz de realizar 1.000.000.000 de ciclos por segundo.
De nada adiantam tais desenvolvimentos se eles não forem acompanhados de melhoramentos na área de memória. Uma idéia antiga é o uso de uma memória cache, construída junto ao processador. Nela são retidos os segmentos mais utilizados e o acesso a ela (por ser interno ao microprocessador) é muito mais rápido.
O objetivo final, é a obtenção do chamado "paralelismo". O conceito de superscalar não deve ser confundido com aquele. Enquanto este é automático e baseado no conhecimento que o microprocessador tem sobre as instruções que executa, o paralelismo exige que o programa que está a ser executado gerencie as diversas estações de paralelismo.
IRAM
Finalmente, um bom marco a ser alcançado talvez seja a dos processadores denominados IRAM (Intelligent Random Access Memory), que consistirão de processador e memória construídos juntos no mesmo chip. Hoje eles são construídos separados e precisam centenas de ligações entre si.
Quando processador e memória forem uma coisa só, essa coisa só precisará de uma conexão a uma rede (possivelmente ótica) e a uma tomada de força. Terá talvez o tamanho de uma carteira de cigarros.
Computação Molecular
Já tratado neste BB, no número 42 - pg. 7, artigo Comp. Baseados em Proteína.
Computação Ótica
Hoje, quando uma fibra ótica é usada simplesmente para substituir um condutor metálico há ganhos de 10 a 100 vezes na vazão. Nas redes atuais, cada vez que um pulso luminoso é amplificado, inserido, removido ou redirecionado, ele precisa ser convertido para um feixe de elétrons para processamento. Esta conversão opto-eletrônica é um sério impedimento para comunicações em alta velocidade. A partir de certas taxas de comunicação, digamos 50 Gbits/segundo, começa a ficar difícil (leia-se caro no começo e impossível depois) lidar com as transformações de elétrons/luz necessárias. Seria muito mais fácil (?) usar apenas luz. Aqui temos dois estágios. No primeiro, em um prazo mais curto, a referida conversão se dá apenas no computador remetente e no computador destino. No segundo estágio, mais a longo prazo, não há conversão. Os computadores serão óticos. Fiquemos com o primeiro.
Uma única fibra ótica tem a capacidade teórica de transportar 25 terabits/segundo (só para comparar, é todo o tráfego telefônico americano em todo um dia das mães, em um único segundo).
O primeiro marco é o desenvolvimento de amplificadores puramente óticos. Recentes desenvolvimentos deste tipo de amplificador (usando ions de érbio misturados no vidro da fibra) têm mostrado desempenho muito superior aos seus concorrentes eletrônicos: são capazes de amplificar tráfego de 50 Gbits/segundo e podem amplificar simultaneamente diversos comprimentos de onda.
O segundo é o desenvolvimento de multiplexadores óticos. Isso é facilitado pela capacidade das fibras de enviar simultaneamente mais de um sinal em freqüências diferentes (que neste caso são cores diferentes). Assim como um receptor de rádio pode ser ajustado para receber uma única estação, um receptor ótico pode ser ajustado para receber luz de apenas uma cor.
A AT&T demonstrou este método combinando sinais de 17 freqüências diferentes, cada um transportando 20 Gbits/segundo em uma distância de 150 Km. Note-se que a capacidade total desta fibra é de 340 Gbits/segundo.
O terceiro é o conceito de sub-redes. Ele se explica pelo fenômeno da exaustão de freqüências na fibra. Para que não ocorra interferência, freqüências próximas precisam ter uma banda de segurança vazia, separando-as. A presença dessas bandas de segurança diminue o espectro disponível. Para resolver o problema pode-se dividir uma grande rede em sub-redes. Os comprimentos de onda que transportam uma dada freqüência em uma sub-rede devem poder ser realocados em freqüência na sub-rede seguinte. Novamente a transmissão comercial por rádio serve de analogia. Uma estação de FM de Curitiba, pode usar a mesma freqüência de outra do Rio de Janeiro sem interferência.
Em março de 95, um consórcio AT&T, Digital e MIT testou este conceito interligando diversas sub-redes e fazendo multiplexação por divisão de comprimento de onda. Cada fibra carregou 20 comprimentos, cada um dos quais a 10 Gbits/segundo. O experimento também testou todos os meios óticos para fazer a mudança de comprimento de onda quando um sinal passa de uma sub-rede a outra. Uma unidade de chaveamento similar a um prisma, denominado roteador de difração, separa a luz viajando na fibra em seus diversos comprimentos de onda. Cada comprimento viaja em um caminho diferente através da estrutura de silício-vidro e toma uma das 20 fibras de saída que entregam o sinal a seu destino. O consórcio também testou uma unidade puramente ótica denominada conversor de comprimento de onda que troca o dito cujo sempre que há necessidade de evitar o conflito de 2 transmissões usando o mesmo wavelength. Há dois outros projetos em andamento ambos sob a égide da ARPA: Um da IBM e outro da Bell. Há também o grupo europeu RACE e o japonês NTT.
Para a multiplexação por tempo, mais adequada para uma rede de pacotes, também há novidades em dispositivos puramente óticos. Um deles, em teste no MIT, chamado demultiplexador ótico, permite receber um sinal a 40Gbits / segundo, e gerar uma saída de dois sinais, o primeiro a 30 Gbits/seg e o outro a 10Gbits/seg. Recentemente a NTT fez experimento semelhante, para uma vazão de 100 Gbits/seg.
Pesquisadores do MIT também construíram um buffer ótico, que retém o sinal luminoso enquanto ele é roteado. Este dispositivo foi beneficiado pelo uso de um pulso de luz especial, chamado soliton, que retém sua forma original quase indefinidamente. A capacidade do soliton de resistir à degradação certamente fará com que ele seja usado em comunicações a longa distância.
"In fact, one can only begin to imagine the uses for a network in which bandwidth becomes as inexpensive as electricy, gas or water." (Vincent Chan, SAM set/95).
Redes Wireless
No ano de 83, analistas da indústria predisseram que no ano 2000 menos de 1 milhão de americanos teriam um celular. Hoje já são 20.000.000. O número de celulares cresce a 50% a.a. na América do Norte, 60% na Europa Ocidental, 70% na Austrália e Ásia e a 200% nos países da América do Sul. (?). Os mesmos analistas agora projetam que em 2001, cerca de 3/4 dos domicílios americanos e cerca de meio bilhão de pessoas no mundo usarão algum tipo de serviço "wireless". Como não vale muito a pena querer ensinar o padre a rezar a missa, fica-se por aqui...
Computação Natural Redes Neurais
O cérebro humano tem ainda diversas vantagens na comparação com sistemas artificiais:
* É robusto e tolerante a falhas. Células nervosas no cérebro morrem todos os dias sem que isto afete a performance de maneira significante.
* É flexível. Pode ser facilmente ajustado a um novo ambiente - ele não tem que ser programado em Pascal, Fortran ou C.
* Pode trabalhar com informações que sejam nebulosas, probabilísticas, ruidosas ou inconsistentes
* É altamente paralelo.
* É pequeno, compacto e dissipa pouquíssima potência.
Esta é a real motivação para estudar computação neural, já que ela é um paradigma alternativo ao P.D. convencional. No PD convencional, temos um programa algorítmico fixo, as entradas variando e as saídas completamente determinadas pelas entradas. Nas RNAs, o que varia é o algoritmo, já que a saída produzida é comparada com a saída desejada e o resultado desta comparação realimenta o algoritmo.
Ela está inspirada no nosso conhecimento da neurociência, embora não seja uma tentativa de descrever o objeto desta ciência de maneira realista. Recebe os nomes de RN, RNA, (onde N pode ser neural e neuronal), neurocomputação, redes associativas, sistemas conexionistas, conexionismo, entre outras. Uma grande linha de pesquisa hoje é em dispositivos analógicos usando RNA. Por exemplo, um chip para auxiliar a locomoção de cegos, já que traduz intensidade luminosa em som.
As características do modelo das RNAs (o cérebro animal) são: degradação suave (1 garrafa de cerveja mata 1000 neurônios), a capacidade de tratar a incerteza, a ambigüidade, a contradição, o ruído e a distorção. Redes neurais têm sido estudadas por muitos anos na esperança de obter desempenho compatível ao humano nos campos de reconhecimento de voz e de imagem. Estes modelos são compostos de muitos elementos computacionais não lineares operando em paralelo e rearranjados em padrões originalmente baseados nas redes neurais biológicas. Os elementos computacionais ou nodos são conectados via pesos que são tipicamente adaptados durante o uso para melhorar a performance.
Tem havido um recente ressurgimento no campo das redes neurais artificiais causado por novas tecnologias e algoritmos, técnicas de implementação em VLSI analógicos e na crença de que o processamento massivo é essencial para o alto desempenho do reconhecimento da fala e da imagem. RNAs têm grande potencial em áreas de reconhecimento nas quais muitas hipóteses são perseguidas em paralelo, altas taxas de computação são requeridas e os melhores sistemas tradicionais estão longe do desempenho humano.
Ao invés de executar as instruções de um programa de maneira seqüencial como em um computador Von Neumann, as RNAs exploram diversas hipóteses competitivas simultaneamente. Os elementos computacionais ou nodos usados em RNAs são não-lineares, tipicamente analógicos, podendo ser simulados em um circuito digital.
O Nodo
O nodo é caracterizado por um limite interno (disparador) chamado de gatilho e pelo tipo de não linearidade. As RNAs são especificadas pela topologia da rede, características dos nodos e regras de treinamento ou aprendizagem. Estas regras especificam um conjunto inicial de pesos e como estes pesos deverão ser adaptados durante o uso para melhorar a performance. Procedimentos de design e regras de treinamento são tópicos de intensa pesquisa nos dias de hoje.
Os benefícios potências das RNAs estendem-se além das altas taxas de computação proporcionadas pelo paralelismo massivo. RNAs provêem um alto grau de robustez ou tolerância à falha muito maior do que os computadores de Von Neumann porque elas têm muito mais nodos de processamento, cada um com suas conexões primárias. A perda de alguns nodos ou suas conexões não necessariamente prejudicam o desempenho total de maneira significativa. Muitos algoritmos de redes neurais adaptam seus pesos de conexões ao longo do tempo, fazendo com que elas "aprendam". A habilidade de adaptar-se e continuamente aprender é essencial em áreas tais como o reconhecimento de voz, onde os dados de treinamento são limitados (porque infinitos) e novos locutores, novas palavras, novos dialetos, novas frases e novos ambientes são continuamente encontrados. A adaptação também provê um grau de robustez para compensar pequenas variações nas características dos elementos sendo processados. Técnicas estatísticas não tradicionais não são adaptativas, isto é, elas processam todos os dados de treinamento antes deles serem usados com novos dados. RNAs são também não paramétricas e fazem poucas presunções sobre a forma de distribuição dos dados (ao contrário de classificadores estatísticos tradicionais).
Planejar RNAs para resolver problemas e estudar as redes biológicas reais podem, também, alterar a maneira sobre como nós pensamos os problemas e conduzir a novos "insights" e melhorias de algoritmos.
Perceptron
Surgiram na virada dos anos 40 para 50 (50/51) baseados no conhecimento que se tinha então da retina (achava-se existirem 3 camadas de células, hoje sabe-se existirem dezenas). A proposta: reconhecer uma imagem (por exemplo, uma letra) a partir de uma memória sensível. Esta memória sensível seria um mosaico e cada elemento deste mosaico, capaz de gerar 0 ou 1 (apagado ou aceso) . Todos os elementos do mosaico estão ligados aos nodos da rede. Cada nodo tem uma matriz de pesos (igual ao tamanho do mosaico), pelo qual são multiplicados os valores 0 ou 1 que vêm dos elementos. Tudo é somado e se o resultado ultrapassar um limite, este nodo dispara.
Matematicamente, cada nodo tem entradas ai e uma saída x onde x = f(s), e s = (ai ( wi, onde os fatores a são as entradas e w são os pesos daquele nodo. a = {0,1} e x será 1 se s > que um determinado limiar, sendo zero senão.
Para simplificar, podemos fazer uma entrada fixa igual a 1, entrando sempre neste neurônio e com um peso igual a -limiar. Agindo assim, a definição acima fica x = 1 se s positivo e x = 0 senão. Um perceptron simples é constituído por uma camada de entrada e uma de saída com conexões completas entre elas. Tanto as entradas como as saídas são binárias (0,1).
A ligação de um elemento de entrada ai a um elemento de saída xj é caracterizada por um peso wij que pode assumir qualquer valor real. É comum existir um elemento de entrada a0 que, considera-se sempre valendo 1. Cada neurônio efetua um processamento escalar dos vetores de entrada e dos pesos, produzindo o resultado desejado.
Lembremos que nesta rede existem i entradas e j saídas. Logo os pesos são i ( j. A saída do elemento processador é dado pela seguinte regra. Se sj > 0 então este neurônio dispara (e xj = 1) e se sj<0 este neurônio não dispara e portanto xj="0."
O treinamento da rede é feito apresentando diversos padrões de entrada (a), verificando a saída (x) que corresponde a cada um destes padrões de entrada, comparando a saída com a saída desejada (t) e corrigindo os pesos de acordo com a expressão: wji = wji + C (tj - xj) ( ai. Isto significa que o peso de cada conexão do elemento i de entrada ao elemento j de saída é corrigido quando a entrada ai é igual a 1 e a saída apresentada pela rede difere da saída desejada. O peso é incrementado se a saída da rede é zero e deveria ser um e decrementado senão. A constante C é fixada em um valor usualmente menor do que 1 e estabelece a velocidade de convergência do processo. (denominada fator de aprendizagem).
No início do processo, os pesos wij são usualmente estabelecidos como valores aleatórios próximos de zero. Durante o processo de aprendizagem os diversos padrões com que se deseja treinar a rede são apresentados repetidamente e os pesos ajustados até que os padrões tenham sido aprendidos, isto é, a exibição de todos os padrões de entrada produz saídas que coincidem com as desejadas, não provocando mais ajustes dos pesos.
A principal limitação do perceptron apresentado acima é a sua incapacidade de discriminar classes de padrões mais complexos. Um elemento de saída por suas possíveis respostas é capaz de classificar as possíveis entradas em duas classes que são linearmente separáveis, isto é, existe um hiperplano que separa o hipercubo das possíveis entradas em dois semi-espaços, cada um contendo todas as entradas possíveis em sua classe. Essa limitação foi o fator determinante para a interrupção das pesquisas nessa linha e é conhecida como separabilidade linear. Seja uma RNA com 2 entradas e uma saída. Ela pode ser treinada para reconhecer qualquer uma das saídas: 00, 01, 10 ou 11. Ou pode ser treinada para qualquer conjunto linearmente separável
Portanto, não é possível a esta rede reconhecer 00 ou 11. Isto porque a equação s = a1 ( w1 + a2 ( w2 +... = 0 divide o hiperplano em 2 regiões. A regra básica é que a separabilidade linear pode ser transformada em separabilidade de regiões convexas quaisquer se usarmos um AND depois da rede. E, colocando uma camada com OR a seguir, a rede passa a ser capaz de discriminar quaisquer regiões, inclusive disjuntas. E a restrição básica a este dispositivo é: "como corrigir 3 camadas de pesos ? " A resposta está no algoritmo de backpropagation.
Um possível melhoramento do perceptron consiste em considerar os valores (-1 e 1) tanto nos elementos de entrada quanto nos de saída em lugar de (0,1). Essa alteração acelerará o treinamento uma vez que os pesos podem ser ajustados também quando a entrada do elemento não é igual a 1, o que não era feito no caso anterior.
Para um reconhecedor de letras, a partir de uma matriz de 7 x 5 (35 pixels), a letra E (xxxxx / xbbbb / xbbbb / xxxxb / xbbbb / xxxxx) terá 17 sinais iguais a 1. Fazendo neste neurônio uma entrada fixa igual a 1, com peso -17, o limiar passa a ser zero. Se houver um elemento trocado, a soma passa a ser 16 (e não 17). É possível fazer o neurônio aceitar isto RELAXANDO seu peso de 17 para 16.
Diferenças da RNA para a Programação Convencional
* Ao invés de fazer um processamento seqüencial a idéia é estabelecer a entrada e fazer todos os 26 processadores trabalhar em paralelo (se for um reconhecedor de alfabeto).
* Os pesos vão se ajustando, à medida em que a rede vai aprendendo. Isto é, é dado um chute inicial e desde que a rede possa ser "treinada" (ensinada, sendo-lhe dito quando a resposta dada por ela está certa ou errada) estes pesos vão convergindo para seus valores ideais.
* Pergunta: quantos pixels ? Teorema fundamental: se é possível discriminar os padrões de entrada, a rede pode ser treinada.
Bases Biológicas
A célula básica do nosso cérebro é o neurônio. Existem de 1011 a 1012 neurônios em um cérebro humano, ou seja de 100.000.000.000 a 1.000.000.000.000 (de 100 bilhões a 1 trilhão) de neurônios. Trata-se de uma célula ramificada. Cada ramo recebe o nome de dendrito. Existe um deles mais longo que recebe o nome de axônio. Existe uma diferença de potencial elétrico entre o interior e o exterior do axônio de 60 a 70 mV.
Em algum momento, a permeabilidade da membrana celular aumenta e entram ions positivos (principalmente sódio = Na+), com isso a diferença de potencial diminui e em um certo momento a célula dispara. Isto significa que um pulso elétrico é criado e viaja pelo axônio (este funciona como um guia de ondas). O pulso é auto sustentado, ou seja o axônio funciona como elemento ativo. Nota interessante, é que se o axônio se ramifica, o pulso idem, idem, sem perda de potência.
A conexão de um axônio a outra célula se dá por um mecanismo razoavelmente desconhecido, denominado sinapse. Existem 2 tipos de sinapse: a excitatória (o pulso de um axônio contribui para o disparo da próxima célula) e a sinapse inibitória (o pulso de um axônio contribui para impedir o disparo da próxima célula).
A velocidade de propagação de um pulso não é alta, já que seus tempos são medidos em milissegundos. Quanto mais primitivo é o ser, mais rápido é o pulso. Esta velocidade pode ser aumentada através de uma bainha de mielina que são células que envolvem o axônio e o isolam.
Existem de 103 até 104 (de 1.000 a 10.000) sinapses por neurônio, o que dá em média 1014 até 1016 sinapses por pessoa.
Base Neural da Memória
Teoria da célula única: 1 único neurônio reconhece a letra "A".
Teoria do padrão: visto um "A" ele gera um padrão de atividade. Não há certezas, mas aparentemente as sinapses têm muita importância, já que o que cresce no aprendizado são as sinapses entre os neurônios.
Agora uma especulação: Supondo uma pessoa com 1014 sinapses e que já nasça com a metade delas prontas. Dividindo o número que sobra por 20 anos, dá como resposta algumas dezenas de sinapses por segundo.
Existe uma memória imediata (guardar um número de telefone enquanto se disca) enquanto há outra de longo prazo. Há evidências de que esta última tem base química.
Existe uma experiência famosa que consiste em cortar o nervo ótico de um batráquio e tornar a ligá-lo tendo feito uma torção de 180 graus em um dos ramos.
Verificou-se que cada neurônio procurou o seu par, a despeito de ter que ter ido atrás dele, o que pressupõe uma memória neuronal.
Diferenças entre Neurônios Reais e Neurônios em RNA
Neurônios reais nem sempre funcionam na base do gatilho. Pelo contrário eles respondem a suas entradas em modo contínuo. Isto é as vezes chamado de "graded response". O relacionamento entre a entrada e a saída é uma característica universal. Muitas células reais executam uma soma não linear de suas entradas. Eles podem ter significativo processamento lógico (AND, OR, NOT) dentro da árvore dendrítica.
Um neurônio real produz um trem de pulsos e não apenas um simples nível de saída. A consideração de um nível de sinal x, faz perder uma série de informações (tal como a fase do pulso). Os neurônios não têm o mesmo tempo de delay. Não são sincronizados por um relógio central e a quantidade de transmissão em uma sinapse pode variar de maneira imprevisível.
NetTalk
Este projeto visou treinar uma rede a "ler" inglês. Trata-se de uma rede em 3 níveis, com 203 elementos binários na entrada (7 grupos de 29 bits), 80 neurônios na camada intermediária e 26 unidades de saída. A entrada se dá informando um caractere e seus 3 antecessores e seus 3 sucessores, a fim de informar à rede em que contexto tal caractere aparece. O número 29 decorre de 26 letras + 2 sinais de pontuação + delimitador (espaço).
A partir desta entrada o sistema gera fonemas que poderiam ser jogados diretamente em um sintetizador a fim de gerar inglês falado. A rede tem conexões completas: as 203 entradas estão ligadas aos 80 intermediários e os 80 intermediários estão ligados às 26 saídas.
A rede foi treinada com 1024 palavras repetidas 50 vezes (50 ciclos). Com os 80 intermediários, o desempenho chegou próximo a 90%. Se em vez de 80 se colocar 120, chega-se a 90% e, surpreendentemente, se tirarmos a camada intermediária, o resultado chega a 80% (sempre com as palavras constantes na lista das 1024 originais).
Posteriormente fez-se uma comparação entre 2 experimentos: o exp1 teve 120 neurônios na camada intermediária e o exp2 teve 2 camadas intermediárias de 80 neurônios cada. Estes números foram escolhidos porque há uma similaridade no número de ligações entre o exp1 e o exp2 (diferença inferior a 10% no número de ligações). Para as 1024 palavras do treinamento, o desempenho de exp1 é similar ao de exp2. Mas, se passarmos a rodar palavras novas, o desempenho de exp2 será melhor. Se olharmos a gênese do conhecimento da rede, verificamos que ela primeiro aprende a distinguir entre vogais e consoantes, depois começa a reconhecer as sílabas, depois a articulá-las... lembrando o processo de aprendizagem de uma criança
É interessante comparar o NETtalk com seu concorrente comercial o DEc-talk. Este está baseado em regras de lingüística codificadas a mão. Não há dúvidas de que o desempenho do DEC é melhor do que o NET, mas isto deve ser visto no contexto do esforço necessário para criar cada sistema. Enquanto o NET aprendeu a partir de alguns exemplos, o DEC tem uma década de investimento em análise de lingüistas. Isto exemplifica as vantagens das RNA. Elas são fáceis de construir e podem ser usadas mesmo quando o problema não está bem entendido. Entretanto, algoritmos baseados em regras são melhores do que as RNA quando suficiente entendimento está disponível.
Computação Evolutiva
Já tratado neste BB, no número 37 - pg. 37, artigo Algorítmos Genéticos.
Olhando Nosso Trabalho
As origens da maneira como nosso trabalho está organizado nas empresas que nos rodeiam, podem ser traçados até a grande sacada de Adam Smith, que em 1776 escreve o magistral tratado chamado "A Riqueza das Nações".
Logo no começo do livro, Smith descreve uma fábrica de alfinetes. Considerando que a construção de um alfinete tem 8 tarefas diferentes e imaginando 10 empregados na fábrica, Smith diz que ao final de uma jornada de trabalho, cada empregado terá produzido 2 alfinetes, dando um total para a fábrica de 20.
Se, ao contrário, for implantado o que ele chamou de lógica de divisão do trabalho e cada empregado fizer apenas uma ou duas dessas tarefas, passando o resultado do seu trabalho para o próximo companheiro a produção poderá ser grandemente aumentada. Mediante essa rudimentar linha de produção, a mesma fábrica e os mesmos operários, poderão produzir 48.000 alfinetes em um turno de trabalho. O que Smith não disse, mas pode ser dito, é que se a linha for desorganizada, a fábrica terá sorte se ao final do turno um único alfinete tiver sido produzido.
Nascia o conceito de divisão do trabalho e Smith já apontava as grandes vantagens que ele apresentava: os operários não precisavam ser tão qualificados; havia facilidade de intercambiar operários e last but not least, a produção seria muito maior. Essas idéias foram primeiro introduzidas em grande escala nas ferrovias americanas, a partir de 1850. Esse ramo de negócio viu também surgir a primeira burocracia.
Essa idéia também está por trás do grande sucesso alcançado por Ford, na sua indústria de automóveis. Embora a história registre que o grande sucesso dele foi a implantação da linha de produção móvel, na verdade a grande visão dele foi o uso de peças padronizadas. A linha móvel aumentou a produtividade muito menos do que a padronização de insumos. A verdade é que na última fábrica construída por Ford, o trabalho de montagem de um carro havia sido reduzido em 900%, em relação ao início da produção. A história também registra outro avanço na Ford. Foi o conceito de controladoria, implantado magistralmente por MacNamara, quando introduziu métodos sofisticados de planejamento de produção. Ao mesmo tempo, na sua concorrente GM, Alfred Sloan, veio com o conceito de empresa divisonalizada. (Chevrolet, Pontiac, Oldsmobile, Buick e Cadillac). Por trás dessas iniciativas estava o raciocínio de que se o trabalho é dividido em partes minúsculas é necessária uma estrutura de controle, que passam a ser os gerentes e médios gerentes.
O resto da história todos sabemos. As empresas crescem nos dois sentidos: para os lados e para cima. Só que chega um certo momento, em que as idéias de Smith são levadas ao extremo em que o controle dá tanto trabalho que se perde a referência. Outro problema, é que esse crescimento gera altos custos fixos (cada caixinha do organograma quer uma vaga na garagem, uma secretária, um ou mais ramais de telefone...). Mais outro problema que surge, é que quando ocorre um problema com um cliente, a quem ele se dirige ? A morosidade de decisão torna-se uma constante e aparecem os processos AU-AU (ao... ao... ao...).
Nisso surgem os japoneses do pós-guerra, com produtos melhores, com prazos de desenvolvimento menores, com inovações tecnológicas sempre crescentes e a custos competitivos. Passado o susto, cabe ao ocidente fazer a mesma coisa. Note-se que a imitação que o mundo faz do movimento japonês não necessariamente tem a ver com uma possível admiração ou respeito por eles. É um movimento econômico de sobrevivência, para poder competir com eles.
Como Deve Ficar ?
Posta a questão central que é não perder competitividade nesse mundo que se torna mais global a cada dia, surgem as seguintes tendências de condução dos negócios, todas elas baseadas no mote central "orientação ao cliente".
Agrupamento de Tarefas
Há um recuo em relação às idéias de Smith. Tarefas que têm similaridade passam a ser feitas por uma mesma pessoa ou por um grupo de pessoas.
Todas as funções de suporte e infra-estrutura que eram responsabilidade de grandes divisões separadas (pesquisa, recursos humanos, finanças, transportes, marketing, planejamento...) passam a ser integradas e feitas pelo mesmo pessoal.
Vale a pena citar o exemplo da IBM Credit, mostrado no livro de Hammer.
Lá numa linha de produção completa, um contrato de pedido de crédito levava de 6 dias a 2 semanas para ser processado. As etapas pelas quais o contrato passava são:
1. O cliente tem credibilidade ?
2. Fixar as condições de crédito
3. Estabelecer o preço (as taxas de juro)
4. Datilografar os documentos (pool de datilografia)
5. Aprovação do gerente da área
6. Despacho
Querendo estudar o fenômeno e romper a barreira dos 6 dias, um diretor pegou um contrato embaixo do braço e saiu procurando as pessoas e pedindo a elas que fizessem o seu serviço. O resultado ? O contrato estava pronto em 90 minutos.
Cabe a pergunta: E o princípio da divisão do trabalho que tão bem nos serviu por 200 anos ? A resposta é simples: Há 200 anos não havia informática.
Empowerment
É a atribuição do real poder de decisão e execução aos empregados. Não deve ser confundido com democracia. Também não é o mesmo que delegação. Enquanto esta é um poder restrito a uma pequena área, aquele é a atribuição do poder total numa dada função. A principal vantagem é que o problema se resolve rápido. Entretanto, é uma decisão de risco. Tudo o que se tem escrito a respeito, diz que quando a implantação é cuidadosa e acompanhada das outras medidas aqui descritas, o risco compensa.
Interdisciplinaridade
É a reunião de áreas diversas combinadas em times interdisciplinares. O mote para este movimento é que a realidade não apresenta departamentos, apresenta problemas. Quanto maior a organização, mais forte este problema se apresenta. Por exemplo, quem na universidade estuda o Estado? Ou então no Ministério da Saúde, onde existem programas vinculados a determinadas doenças ou grupos etários. Só que ninguém chega no médico e diz "sou adolescente" e sim está doendo meu dedão".
Mais ainda, os conhecimentos interfuncionais facilitam interfaces e atividades de planejamento paralelo. Um conjunto de conhecimentos e perspectiva ampla aumenta a probabilidade de que o produto ou serviço atenda exigências multifuncionais.
Criação de Times
É o trabalho conjunto. É o movimento de arrebentar paredes. O melhor paradigma para este movimento é a MICROSOFT. Não é a simples mexida no organograma da empresa e a mera criação de "círculos de qualquer coisa". Os trabalhadores reagem apenas quando existe um senso de compromisso mútuo, um senso de que a gerência realmente valoriza os trabalhadores qualificados, fará sacrifícios para mantê-los e está propensa a delegar responsabilidades à equipe.
Outra vantagem importante é a melhor qualidade de vida no trabalho
Compressão de Tempo Via TI
Aqui aparece a informática com uma de suas mais nobres vocações: a de acelerar o relógio. Àqueles que pensam "claro que posso terminar mais rápido, mais vai custar uma fortuna", sugere-se jogar essa idéia na cesta de lixo das idéias do que restou da produção em massa (junto, por exemplo, com a idéia de que a qualidade custa caro).
Kaizen
É uma palavra de origem japonesa e que significa melhoria contínua. Parte do pressuposto de que, por melhor que seja um produto ou processo, ele sempre pode ser melhorado, por pequena que seja a melhoria.
Problemas
O primeiro é o desemprego. Claramente, há um movimento no mundo moderno de cortar postos de trabalho. Há por outro lado uma população crescente. Como compatibilizar essas duas coisas ? Outra questão séria, é quem se apropria do resultado desse esforço ?
Por outro lado a era da competitividade trouxe mais trabalho e tensão. Já foi rotulada por trabalhadores americanos de "gerência pelo stress". Isso tem uma ponta de verdade. O sistema de produção moderno bem organizado remove todas as folgas: é por isso que ele é moderno e bem organizado. Há entretanto uma questão importante: a produção moderna é frágil. Sem redes de segurança, ela depende de gerentes e trabalhadores comprometidos e conseqüentemente depende do esforço de cada um deles.
E os Perfis ?
Para responder a esse estado de coisas, o profissional do século XXI precisa fazer algumas coisas.
Generalista
A primeira delas é abandonar a idéia da especialização detalhista. O futuro pertence aos generalistas, com o cuidado devido que há que se ter com essa palavra. O generalista não é o especialista que não deu certo. É, sim, o múltiplo especialista. Um problema que salta aos olhos nessa abordagem é que o maior centro de resistência a essa mudança é a universidade, que deveria ser, por excelência, a provedora desse tipo de recurso. Além de generalista o profissional também é flexível.
Educação Continuada
É preciso capacitar os profissionais a se reciclarem continuadamente. Note-se que se usou a palavra educação e não apenas treinamento. É mais do que isso. Precisamos nos acostumar com a idéia de que entra-se na escola com 6 ou 7 anos e dela nunca mais se sai. A crescente quantidade de coisas que se descobrem e que entram na nossa vida profissional não vai diminuir. Pelo contrário. Assistimos ao fenômeno da substituição da tecnologia e em ciclos cada vez menores. E isso não vale apenas para profissões envolvidas com a informática. Ao contrário, atinge todas elas. Naturalmente, há as mais conservadoras como direito e medicina e as mais dinâmicas (engenharia, por exemplo), mas de alguma maneira todas elas são influenciadas.
Diminuição de Níveis Hierárquicos
Como conseqüência dos novos métodos de produção industrial (o que tem sido chamado de produção enxuta) e como uma extensão das tendências vistas acima (Kaizen, Empowerment, Equipes...), e até como uma maneira de reduzir custos diretos, as modernas empresas têm achatado seus organogramas. A regra (novamente extraída dos japoneses) é simples: "quem não agrega valor ao produto ou serviço, não tem porque estar ali". Novamente, um exemplo clássico é a MICROSOFT, mas não o único. O executivo da SAS, Jan Karlzon, em um inspirado livro, sugere que o organograma de qualquer empresa, por maior que seja, deva ser reduzido a poucos níveis. (E ele ainda sugere que ele seja invertido, o presidente embaixo e os atendedores do público acima. Não é a toa que o livro dele se chama "A hora da verdade", que é quando um cliente entra em contato com a organização).
Relacionamento Disseminação Global de Informações
Nas antiquadas organizações os gerentes tendem a esconder as informações por verem nelas a chave de seu poder. Numa organização moderna, todas as informações: metas diárias de produção, panes em equipamentos, faltas de pessoal, quem ou o que está atrasado e adiantado, necessidades de horas extras, etc., precisam ser bem visíveis por todos.
Há iniciativas de todos os tipos, originalmente baseadas nos quadros andon das industrias japonesas. Há um livro de qualidade de software de Gerald Weinberg que sugere que projetos de software sejam acompanhados através de PPPP (Pôster Público de Progresso do Projeto).
Deve-se notar que não se trata de oficializar a rádio corredor. Não é iniciativa leviana ou simples ou fácil. Mas, para que todos possam se sentir responsáveis, as informações básicas do negócio (todas) precisam estar disponíveis.
Gerente como Provedor e Não (apenas) Controlador
O novo gerente, precisa ser uma pessoa hábil e conhecedora, mas ele não precisa mais trabalhar a portas fechadas. Mais ainda, ele precisa por a mão na massa, seja para treinar, para dar o exemplo, para substituir alguém. Ele precisa se impor pelo respeito técnico do grupo e, antes de ser um cobrador, precisa ser um auxiliar do grupo para que este consiga fazer suas tarefas.
Não é fácil esta mudança de enfoque. Grande parte dos programas de qualidade que se implantam atabalhoadamente por ai, começam a falhar neste quesito. Os gerentes são necessários, eles não são descartáveis, mas o seu papel mudou. A organização que souber lidar com esta condicionante e tiver sucesso, terá dado um passo de gigante.
Ouvir a Ponta
Essa é a contrapartida da inversão do papel do gerente. Agora a ponta (no dizer de Karlzon, os que desempenham "a hora da verdade"), precisa ser ouvida. Vejamos que esta abordagem não é nenhum pouco absurda. Quem realmente executa uma tarefa, pode e deve opinar sobre como otimizar essa tarefa. É claro que a engenharia de produção, ou a otimização através de métodos quantitativos, ou enfim, a moderna administração precisa se fazer presente, com suas ferramentas sofisticadas. Mas o que se sugere aqui é que tais ferramentas são sejam aplicadas mantendo os funcionários da operação divorciados (ou o que pior: contra) o processo.
E o Novo Profissional?
Embora estejamos no terceiro mundo, onde tudo é mais complicado, principalmente em termos de educação básica para a população, não adianta ficar clamando aos céus (ou a Brasília) pela mudança do estado de coisas. Quer dizer, pode ser que adiante um pouco, mas isso não impede que cada um de nós organize sua vida e se programe e planeje para ter um certo valor positivo no mercado de trabalho.
Para ser bem sucedido, o profissional deve:
Ter Intimidade com a TI
Não se fala aqui, de transformar todo mundo em programador BASIC ou equivalente. Não teria o menor sentido. O que se pede, é que as pessoas desenvolvam um sentimento positivo em relação à informática. Nossos filhos já estão fazendo isso, seja em videogames, seja em aulas de informática na escola. Nossa geração é a última na qual se mesclam os sentimentos de respeito e ódio em relação à automação crescente via computador.
Pouquíssimas profissões não têm a lucrar no uso da informática. Existem mais de 50.000 programas de computador para quase todas as finalidades imagináveis e esse número não para de crescer.
Mais ainda, com o advento das interfaces WIMP (window, icon, menus drop-down e pointing devices), o pesadelo de antigamente (que era dialogar com a máquina), hoje, se não está superado, pelo menos foi bem reduzido.
Saber "Esperanto"
No passado foi o latim, no século XIX o francês e hoje ninguém pode duvidar que o esperanto atual é o inglês. A adoção desse idioma por parte do lado oriental do mundo, bem como a predominância econômica e política dos EUA, fizeram com que o inglês se tornasse o linguajar comum de toda e qualquer organização que ultrapassa fronteiras (Por exemplo, na congregação de Madre Teresa de Calcutá, nascida no meio da pobreza do País Indiano, fala-se, pensa-se e até reza-se em inglês).
E como as fronteiras tendem a diminuir de importância daqui para a frente (se não houver recaídas de nacionalismo delirantes), cresce a necessidade de domínio do idioma de Shakespeare. No Brasil vivemos essa situação. Saindo de anos em que as fronteiras eram quase intransponíveis, hoje compramos e vendemos produtos e serviços em todo o mundo. E, cá pra nós não é tão difícil assim: o inglês é muito mais fácil do que o português, a pena é que a gente não aprende ele no berço e nem na escola...
Há mais um agravante e esse diz respeito à TI. Há não muitos anos, o prazo médio de produção de um livro (técnico, que seja) desde a sua concepção até sua disponibilização em livrarias era medida em anos. Havia tempo para traduções e adaptações. Hoje esse tempo se foi. Os livros se obsoletam de uma maneira tal, que não podemos nos dar ao luxo de aguardar anos pela sua tradução. O resultado é esse: ou não há tradução, ou há um arremedo de tal, que ao invés de ajudar, atrapalha. Neste ponto, não há nenhuma dúvida, o negócio é ir ao original.
Entrar no Mundo Global
Este panorama não estaria completo sem falar na Internet. Não devemos nos iludir. Esse vai ser o grande canal de disseminação de informações no século XXI. A possibilidade do trabalho conjunto (o chamado groupware) é expectativa líquida e certa. A busca por soluções onde elas estiverem (abstraindo-se o fator distância e língua, como já se viu acima) deve passar a ser a tônica dominante em futuro não muito distante.
É importante que as nossas organizações disponibilizem aos seus empregados conexões locais a redes Internet-like, orientem, ajudem e impulsionem esse uso.
kantek@lepus.celepar.br
Para Terminar
O novo profissional faz seu planejamento de carreira, sabe que o sucesso dele depende da sua empresa e da empresa depende dele, tem uma certa intimidade com o computador, sabe que seu valor é instável (e conta com isso), faz parte da aldeia global, (está plugado) estuda e trabalha duro para si e para a sua empresa.
Autor: Pedro Luis Kantek Garcia Navarro
Palestra apresentada por Pedro Luis Kantek Garcia Navarro, ao participar como representante da CELEPAR de painel do mesmo nome, no III infotel, Encontro de Informática dos empregados da TELEPAR, em outubro de 1995.
Introdução
Procurando ser fiel ao título do painel, este texto está dividido em 2 grandes partes: na primeira (que abrange o capítulo 2), fala-se sobre (algumas) tendências em tecnologia de informação. Na segunda parte (os capítulos 3, 4, 5, 6 e 7), fala-se sobre empregado, gerente e empresa. Há, claramente, uma divisão não eqüitativa entre as partes. De fato, o capítulo 2 ocupa quase 70% do texto. Isso foi proposital, como uma tentativa de levar ao público ouvinte maiores informações sobre as tendências citadas, uma vez que elas extrapolam um pouco o senso comum e precisam de mais detalhe para serem entendidas.
Ao final, os leitores dirão se essa tentativa foi bem sucedida, ou mesmo útil. De qualquer maneira, meus agradecimentos em meu nome e no da CELEPAR pelo honroso convite para estar aqui no INFOTEL.
Evolução da Tecnologia da Informação
Em lugar de fazer um retrospecto do que ocorreu nos últimos 30 anos na TI (tecnologia da informação), gostaria de especular a respeito do que deverá ocorrer nos próximos anos.
Ressalte-se que é um tremendo risco essa atitude. Por exemplo, quem, há 10 anos, iria sequer cogitar da importância de um programa chamado Windows ? Ou, pior ainda, quem imaginaria o papel desempenhado pelo micro de baixo custo ?
Mas, as dificuldades não devem nos assustar. Vamos ver algo do que se está falando, estudando, pesquisando e desenvolvendo nos grandes laboratórios de ponta.
Antes, uma observação importante: estas são apenas algumas tendências. Certamente a lista não é exaustiva e importantes questões foram deixadas de lado (engenharia de software, metodologias de desenvolvimento, shells agregando IA para melhoria de interface, multimídia, sistemas temporais, etc.). Mas, voltando à nossa proposta (de algumas tendências), pelo que se pode ler por aí, terá boa chance de acertar, quem disser que no futuro nós teremos:
Microprocessadores mais Velozes e Baratos
Comecemos verificando que o desempenho de um microprocessador (como o P6, da Intel) é hoje 25.000 vezes melhor do que o seu ancestral 4004. Na verdade, a história da TI (tecnologia da informação) registra dois eventos importantes: o conceito de programa armazenado (devido a Von Neuman, nos anos 40) e o conceito do microprocessador (Intel, 1971). Construir um microprocessador é como fazer uma pizza. Começa-se com uma camada de massa e sobre ela vão sendo dispostos ingredientes (transistores, conexões, ...), ciclo este que é repetido mais de 20 vezes. Há problemas com a miniaturização crescente: cresce a probabilidade de defeito devido a um único componente. Mas, a engenharia de produto não deixa de buscar remédios. Afinal o mercado é convidativo. Se a tendência de miniaturização continuar, o tamanho de um único gate (componente lógico com 2 estados) deverá se aproximar do tamanho de uma molécula lá pelo ano 2030. A maior parcela limitante: Cada fator de dois em miniaturização aumenta o custo de manufatura do chip em cinco vezes. Em algum momento, a busca de componentes menores será limitada mais pelo aspecto econômico do que físico. Mas, há espaço para diminuir bastante ainda. Nos anos 80, estimava-se que o desempenho de um microprocessador crescia 35% a.a. Hoje, ele cresce a 55% a.a. (4% a.m.). Para encerrar, uma comparação: o 4004 tinha 2.300 transistores e o P6 tem 5.5 milhões deles.
Pipeline
Um conceito chave é o "pipelined". Imaginemos uma pessoa precisando lavar suas roupas em casa. Primeiro lavar (1:30 hs) depois secar (mais 1 hora). Se tivermos uma única carga de roupa, não tem jeito: o processo todo durará 2:30 hs, fenômeno conhecido como paradoxo do "pipeline". Mas se forem milhares de cargas de roupa, adiantará muito ir a uma lavanderia automática (que contenha muitas lavadoras e secadoras) e fazer o processo de maneira "pipeline", ou seja enquanto uma máquina lava a segunda carga de roupa, uma secadora está secando a primeira. Exemplificando com 100 cargas de roupa, o primeiro processo levará 250 horas, enquanto o segundo 151 horas.
Em um microprocessador, cada instrução que é executada é dividida em várias (tipicamente de 5 a 10) fases. O conceito de pipeline atua aí. Enquanto se está na fase k da instrução corrente, o processador está na fase k-1 da próxima instrução e na fase k-2 da subseqüente e assim por diante.
A velocidade de um processador é medida pela quantidade de ciclos completos que ele executa por segundo. Assim, um bom processador comercial disponível hoje tem 50 MHz, o que significa que ele executa 50.000.000 de ciclos por segundo. Já há microprocessadores com 8 estágios de pipeline que conseguem produzir taxas de 300 Mhz.
Supercaling
Usando o conceito batizado meio "chochamente" (faltou palavra melhor) de superescalar, pelo qual mais hardware é agregado ao processador, permitindo um certo grau de paralelismo às operações que estão sendo "pipelined", consegue-se aumentar a velocidade. Na nossa analogia com a lavagem de roupa, pode-se imaginar uma imensa lavadora, capaz de processar 20 cargas de roupa ao mesmo tempo. Já há processadores com fatores de "superscaling" de 3 a 6. Juntando os dois conceitos, pode-se imaginar uma máquina de ciclo básico de 50 MHz, com fator de pipeline de 8 (250 MHz), e fator de superscaling de 4, que atinge 1 GHz, ou que é capaz de realizar 1.000.000.000 de ciclos por segundo.
De nada adiantam tais desenvolvimentos se eles não forem acompanhados de melhoramentos na área de memória. Uma idéia antiga é o uso de uma memória cache, construída junto ao processador. Nela são retidos os segmentos mais utilizados e o acesso a ela (por ser interno ao microprocessador) é muito mais rápido.
O objetivo final, é a obtenção do chamado "paralelismo". O conceito de superscalar não deve ser confundido com aquele. Enquanto este é automático e baseado no conhecimento que o microprocessador tem sobre as instruções que executa, o paralelismo exige que o programa que está a ser executado gerencie as diversas estações de paralelismo.
IRAM
Finalmente, um bom marco a ser alcançado talvez seja a dos processadores denominados IRAM (Intelligent Random Access Memory), que consistirão de processador e memória construídos juntos no mesmo chip. Hoje eles são construídos separados e precisam centenas de ligações entre si.
Quando processador e memória forem uma coisa só, essa coisa só precisará de uma conexão a uma rede (possivelmente ótica) e a uma tomada de força. Terá talvez o tamanho de uma carteira de cigarros.
Computação Molecular
Já tratado neste BB, no número 42 - pg. 7, artigo Comp. Baseados em Proteína.
Computação Ótica
Hoje, quando uma fibra ótica é usada simplesmente para substituir um condutor metálico há ganhos de 10 a 100 vezes na vazão. Nas redes atuais, cada vez que um pulso luminoso é amplificado, inserido, removido ou redirecionado, ele precisa ser convertido para um feixe de elétrons para processamento. Esta conversão opto-eletrônica é um sério impedimento para comunicações em alta velocidade. A partir de certas taxas de comunicação, digamos 50 Gbits/segundo, começa a ficar difícil (leia-se caro no começo e impossível depois) lidar com as transformações de elétrons/luz necessárias. Seria muito mais fácil (?) usar apenas luz. Aqui temos dois estágios. No primeiro, em um prazo mais curto, a referida conversão se dá apenas no computador remetente e no computador destino. No segundo estágio, mais a longo prazo, não há conversão. Os computadores serão óticos. Fiquemos com o primeiro.
Uma única fibra ótica tem a capacidade teórica de transportar 25 terabits/segundo (só para comparar, é todo o tráfego telefônico americano em todo um dia das mães, em um único segundo).
O primeiro marco é o desenvolvimento de amplificadores puramente óticos. Recentes desenvolvimentos deste tipo de amplificador (usando ions de érbio misturados no vidro da fibra) têm mostrado desempenho muito superior aos seus concorrentes eletrônicos: são capazes de amplificar tráfego de 50 Gbits/segundo e podem amplificar simultaneamente diversos comprimentos de onda.
O segundo é o desenvolvimento de multiplexadores óticos. Isso é facilitado pela capacidade das fibras de enviar simultaneamente mais de um sinal em freqüências diferentes (que neste caso são cores diferentes). Assim como um receptor de rádio pode ser ajustado para receber uma única estação, um receptor ótico pode ser ajustado para receber luz de apenas uma cor.
A AT&T demonstrou este método combinando sinais de 17 freqüências diferentes, cada um transportando 20 Gbits/segundo em uma distância de 150 Km. Note-se que a capacidade total desta fibra é de 340 Gbits/segundo.
O terceiro é o conceito de sub-redes. Ele se explica pelo fenômeno da exaustão de freqüências na fibra. Para que não ocorra interferência, freqüências próximas precisam ter uma banda de segurança vazia, separando-as. A presença dessas bandas de segurança diminue o espectro disponível. Para resolver o problema pode-se dividir uma grande rede em sub-redes. Os comprimentos de onda que transportam uma dada freqüência em uma sub-rede devem poder ser realocados em freqüência na sub-rede seguinte. Novamente a transmissão comercial por rádio serve de analogia. Uma estação de FM de Curitiba, pode usar a mesma freqüência de outra do Rio de Janeiro sem interferência.
Em março de 95, um consórcio AT&T, Digital e MIT testou este conceito interligando diversas sub-redes e fazendo multiplexação por divisão de comprimento de onda. Cada fibra carregou 20 comprimentos, cada um dos quais a 10 Gbits/segundo. O experimento também testou todos os meios óticos para fazer a mudança de comprimento de onda quando um sinal passa de uma sub-rede a outra. Uma unidade de chaveamento similar a um prisma, denominado roteador de difração, separa a luz viajando na fibra em seus diversos comprimentos de onda. Cada comprimento viaja em um caminho diferente através da estrutura de silício-vidro e toma uma das 20 fibras de saída que entregam o sinal a seu destino. O consórcio também testou uma unidade puramente ótica denominada conversor de comprimento de onda que troca o dito cujo sempre que há necessidade de evitar o conflito de 2 transmissões usando o mesmo wavelength. Há dois outros projetos em andamento ambos sob a égide da ARPA: Um da IBM e outro da Bell. Há também o grupo europeu RACE e o japonês NTT.
Para a multiplexação por tempo, mais adequada para uma rede de pacotes, também há novidades em dispositivos puramente óticos. Um deles, em teste no MIT, chamado demultiplexador ótico, permite receber um sinal a 40Gbits / segundo, e gerar uma saída de dois sinais, o primeiro a 30 Gbits/seg e o outro a 10Gbits/seg. Recentemente a NTT fez experimento semelhante, para uma vazão de 100 Gbits/seg.
Pesquisadores do MIT também construíram um buffer ótico, que retém o sinal luminoso enquanto ele é roteado. Este dispositivo foi beneficiado pelo uso de um pulso de luz especial, chamado soliton, que retém sua forma original quase indefinidamente. A capacidade do soliton de resistir à degradação certamente fará com que ele seja usado em comunicações a longa distância.
"In fact, one can only begin to imagine the uses for a network in which bandwidth becomes as inexpensive as electricy, gas or water." (Vincent Chan, SAM set/95).
Redes Wireless
No ano de 83, analistas da indústria predisseram que no ano 2000 menos de 1 milhão de americanos teriam um celular. Hoje já são 20.000.000. O número de celulares cresce a 50% a.a. na América do Norte, 60% na Europa Ocidental, 70% na Austrália e Ásia e a 200% nos países da América do Sul. (?). Os mesmos analistas agora projetam que em 2001, cerca de 3/4 dos domicílios americanos e cerca de meio bilhão de pessoas no mundo usarão algum tipo de serviço "wireless". Como não vale muito a pena querer ensinar o padre a rezar a missa, fica-se por aqui...
Computação Natural Redes Neurais
O cérebro humano tem ainda diversas vantagens na comparação com sistemas artificiais:
* É robusto e tolerante a falhas. Células nervosas no cérebro morrem todos os dias sem que isto afete a performance de maneira significante.
* É flexível. Pode ser facilmente ajustado a um novo ambiente - ele não tem que ser programado em Pascal, Fortran ou C.
* Pode trabalhar com informações que sejam nebulosas, probabilísticas, ruidosas ou inconsistentes
* É altamente paralelo.
* É pequeno, compacto e dissipa pouquíssima potência.
Esta é a real motivação para estudar computação neural, já que ela é um paradigma alternativo ao P.D. convencional. No PD convencional, temos um programa algorítmico fixo, as entradas variando e as saídas completamente determinadas pelas entradas. Nas RNAs, o que varia é o algoritmo, já que a saída produzida é comparada com a saída desejada e o resultado desta comparação realimenta o algoritmo.
Ela está inspirada no nosso conhecimento da neurociência, embora não seja uma tentativa de descrever o objeto desta ciência de maneira realista. Recebe os nomes de RN, RNA, (onde N pode ser neural e neuronal), neurocomputação, redes associativas, sistemas conexionistas, conexionismo, entre outras. Uma grande linha de pesquisa hoje é em dispositivos analógicos usando RNA. Por exemplo, um chip para auxiliar a locomoção de cegos, já que traduz intensidade luminosa em som.
As características do modelo das RNAs (o cérebro animal) são: degradação suave (1 garrafa de cerveja mata 1000 neurônios), a capacidade de tratar a incerteza, a ambigüidade, a contradição, o ruído e a distorção. Redes neurais têm sido estudadas por muitos anos na esperança de obter desempenho compatível ao humano nos campos de reconhecimento de voz e de imagem. Estes modelos são compostos de muitos elementos computacionais não lineares operando em paralelo e rearranjados em padrões originalmente baseados nas redes neurais biológicas. Os elementos computacionais ou nodos são conectados via pesos que são tipicamente adaptados durante o uso para melhorar a performance.
Tem havido um recente ressurgimento no campo das redes neurais artificiais causado por novas tecnologias e algoritmos, técnicas de implementação em VLSI analógicos e na crença de que o processamento massivo é essencial para o alto desempenho do reconhecimento da fala e da imagem. RNAs têm grande potencial em áreas de reconhecimento nas quais muitas hipóteses são perseguidas em paralelo, altas taxas de computação são requeridas e os melhores sistemas tradicionais estão longe do desempenho humano.
Ao invés de executar as instruções de um programa de maneira seqüencial como em um computador Von Neumann, as RNAs exploram diversas hipóteses competitivas simultaneamente. Os elementos computacionais ou nodos usados em RNAs são não-lineares, tipicamente analógicos, podendo ser simulados em um circuito digital.
O Nodo
O nodo é caracterizado por um limite interno (disparador) chamado de gatilho e pelo tipo de não linearidade. As RNAs são especificadas pela topologia da rede, características dos nodos e regras de treinamento ou aprendizagem. Estas regras especificam um conjunto inicial de pesos e como estes pesos deverão ser adaptados durante o uso para melhorar a performance. Procedimentos de design e regras de treinamento são tópicos de intensa pesquisa nos dias de hoje.
Os benefícios potências das RNAs estendem-se além das altas taxas de computação proporcionadas pelo paralelismo massivo. RNAs provêem um alto grau de robustez ou tolerância à falha muito maior do que os computadores de Von Neumann porque elas têm muito mais nodos de processamento, cada um com suas conexões primárias. A perda de alguns nodos ou suas conexões não necessariamente prejudicam o desempenho total de maneira significativa. Muitos algoritmos de redes neurais adaptam seus pesos de conexões ao longo do tempo, fazendo com que elas "aprendam". A habilidade de adaptar-se e continuamente aprender é essencial em áreas tais como o reconhecimento de voz, onde os dados de treinamento são limitados (porque infinitos) e novos locutores, novas palavras, novos dialetos, novas frases e novos ambientes são continuamente encontrados. A adaptação também provê um grau de robustez para compensar pequenas variações nas características dos elementos sendo processados. Técnicas estatísticas não tradicionais não são adaptativas, isto é, elas processam todos os dados de treinamento antes deles serem usados com novos dados. RNAs são também não paramétricas e fazem poucas presunções sobre a forma de distribuição dos dados (ao contrário de classificadores estatísticos tradicionais).
Planejar RNAs para resolver problemas e estudar as redes biológicas reais podem, também, alterar a maneira sobre como nós pensamos os problemas e conduzir a novos "insights" e melhorias de algoritmos.
Perceptron
Surgiram na virada dos anos 40 para 50 (50/51) baseados no conhecimento que se tinha então da retina (achava-se existirem 3 camadas de células, hoje sabe-se existirem dezenas). A proposta: reconhecer uma imagem (por exemplo, uma letra) a partir de uma memória sensível. Esta memória sensível seria um mosaico e cada elemento deste mosaico, capaz de gerar 0 ou 1 (apagado ou aceso) . Todos os elementos do mosaico estão ligados aos nodos da rede. Cada nodo tem uma matriz de pesos (igual ao tamanho do mosaico), pelo qual são multiplicados os valores 0 ou 1 que vêm dos elementos. Tudo é somado e se o resultado ultrapassar um limite, este nodo dispara.
Matematicamente, cada nodo tem entradas ai e uma saída x onde x = f(s), e s = (ai ( wi, onde os fatores a são as entradas e w são os pesos daquele nodo. a = {0,1} e x será 1 se s > que um determinado limiar, sendo zero senão.
Para simplificar, podemos fazer uma entrada fixa igual a 1, entrando sempre neste neurônio e com um peso igual a -limiar. Agindo assim, a definição acima fica x = 1 se s positivo e x = 0 senão. Um perceptron simples é constituído por uma camada de entrada e uma de saída com conexões completas entre elas. Tanto as entradas como as saídas são binárias (0,1).
A ligação de um elemento de entrada ai a um elemento de saída xj é caracterizada por um peso wij que pode assumir qualquer valor real. É comum existir um elemento de entrada a0 que, considera-se sempre valendo 1. Cada neurônio efetua um processamento escalar dos vetores de entrada e dos pesos, produzindo o resultado desejado.
Lembremos que nesta rede existem i entradas e j saídas. Logo os pesos são i ( j. A saída do elemento processador é dado pela seguinte regra. Se sj > 0 então este neurônio dispara (e xj = 1) e se sj<0 este neurônio não dispara e portanto xj="0."
O treinamento da rede é feito apresentando diversos padrões de entrada (a), verificando a saída (x) que corresponde a cada um destes padrões de entrada, comparando a saída com a saída desejada (t) e corrigindo os pesos de acordo com a expressão: wji = wji + C (tj - xj) ( ai. Isto significa que o peso de cada conexão do elemento i de entrada ao elemento j de saída é corrigido quando a entrada ai é igual a 1 e a saída apresentada pela rede difere da saída desejada. O peso é incrementado se a saída da rede é zero e deveria ser um e decrementado senão. A constante C é fixada em um valor usualmente menor do que 1 e estabelece a velocidade de convergência do processo. (denominada fator de aprendizagem).
No início do processo, os pesos wij são usualmente estabelecidos como valores aleatórios próximos de zero. Durante o processo de aprendizagem os diversos padrões com que se deseja treinar a rede são apresentados repetidamente e os pesos ajustados até que os padrões tenham sido aprendidos, isto é, a exibição de todos os padrões de entrada produz saídas que coincidem com as desejadas, não provocando mais ajustes dos pesos.
A principal limitação do perceptron apresentado acima é a sua incapacidade de discriminar classes de padrões mais complexos. Um elemento de saída por suas possíveis respostas é capaz de classificar as possíveis entradas em duas classes que são linearmente separáveis, isto é, existe um hiperplano que separa o hipercubo das possíveis entradas em dois semi-espaços, cada um contendo todas as entradas possíveis em sua classe. Essa limitação foi o fator determinante para a interrupção das pesquisas nessa linha e é conhecida como separabilidade linear. Seja uma RNA com 2 entradas e uma saída. Ela pode ser treinada para reconhecer qualquer uma das saídas: 00, 01, 10 ou 11. Ou pode ser treinada para qualquer conjunto linearmente separável
Portanto, não é possível a esta rede reconhecer 00 ou 11. Isto porque a equação s = a1 ( w1 + a2 ( w2 +... = 0 divide o hiperplano em 2 regiões. A regra básica é que a separabilidade linear pode ser transformada em separabilidade de regiões convexas quaisquer se usarmos um AND depois da rede. E, colocando uma camada com OR a seguir, a rede passa a ser capaz de discriminar quaisquer regiões, inclusive disjuntas. E a restrição básica a este dispositivo é: "como corrigir 3 camadas de pesos ? " A resposta está no algoritmo de backpropagation.
Um possível melhoramento do perceptron consiste em considerar os valores (-1 e 1) tanto nos elementos de entrada quanto nos de saída em lugar de (0,1). Essa alteração acelerará o treinamento uma vez que os pesos podem ser ajustados também quando a entrada do elemento não é igual a 1, o que não era feito no caso anterior.
Para um reconhecedor de letras, a partir de uma matriz de 7 x 5 (35 pixels), a letra E (xxxxx / xbbbb / xbbbb / xxxxb / xbbbb / xxxxx) terá 17 sinais iguais a 1. Fazendo neste neurônio uma entrada fixa igual a 1, com peso -17, o limiar passa a ser zero. Se houver um elemento trocado, a soma passa a ser 16 (e não 17). É possível fazer o neurônio aceitar isto RELAXANDO seu peso de 17 para 16.
Diferenças da RNA para a Programação Convencional
* Ao invés de fazer um processamento seqüencial a idéia é estabelecer a entrada e fazer todos os 26 processadores trabalhar em paralelo (se for um reconhecedor de alfabeto).
* Os pesos vão se ajustando, à medida em que a rede vai aprendendo. Isto é, é dado um chute inicial e desde que a rede possa ser "treinada" (ensinada, sendo-lhe dito quando a resposta dada por ela está certa ou errada) estes pesos vão convergindo para seus valores ideais.
* Pergunta: quantos pixels ? Teorema fundamental: se é possível discriminar os padrões de entrada, a rede pode ser treinada.
Bases Biológicas
A célula básica do nosso cérebro é o neurônio. Existem de 1011 a 1012 neurônios em um cérebro humano, ou seja de 100.000.000.000 a 1.000.000.000.000 (de 100 bilhões a 1 trilhão) de neurônios. Trata-se de uma célula ramificada. Cada ramo recebe o nome de dendrito. Existe um deles mais longo que recebe o nome de axônio. Existe uma diferença de potencial elétrico entre o interior e o exterior do axônio de 60 a 70 mV.
Em algum momento, a permeabilidade da membrana celular aumenta e entram ions positivos (principalmente sódio = Na+), com isso a diferença de potencial diminui e em um certo momento a célula dispara. Isto significa que um pulso elétrico é criado e viaja pelo axônio (este funciona como um guia de ondas). O pulso é auto sustentado, ou seja o axônio funciona como elemento ativo. Nota interessante, é que se o axônio se ramifica, o pulso idem, idem, sem perda de potência.
A conexão de um axônio a outra célula se dá por um mecanismo razoavelmente desconhecido, denominado sinapse. Existem 2 tipos de sinapse: a excitatória (o pulso de um axônio contribui para o disparo da próxima célula) e a sinapse inibitória (o pulso de um axônio contribui para impedir o disparo da próxima célula).
A velocidade de propagação de um pulso não é alta, já que seus tempos são medidos em milissegundos. Quanto mais primitivo é o ser, mais rápido é o pulso. Esta velocidade pode ser aumentada através de uma bainha de mielina que são células que envolvem o axônio e o isolam.
Existem de 103 até 104 (de 1.000 a 10.000) sinapses por neurônio, o que dá em média 1014 até 1016 sinapses por pessoa.
Base Neural da Memória
Teoria da célula única: 1 único neurônio reconhece a letra "A".
Teoria do padrão: visto um "A" ele gera um padrão de atividade. Não há certezas, mas aparentemente as sinapses têm muita importância, já que o que cresce no aprendizado são as sinapses entre os neurônios.
Agora uma especulação: Supondo uma pessoa com 1014 sinapses e que já nasça com a metade delas prontas. Dividindo o número que sobra por 20 anos, dá como resposta algumas dezenas de sinapses por segundo.
Existe uma memória imediata (guardar um número de telefone enquanto se disca) enquanto há outra de longo prazo. Há evidências de que esta última tem base química.
Existe uma experiência famosa que consiste em cortar o nervo ótico de um batráquio e tornar a ligá-lo tendo feito uma torção de 180 graus em um dos ramos.
Verificou-se que cada neurônio procurou o seu par, a despeito de ter que ter ido atrás dele, o que pressupõe uma memória neuronal.
Diferenças entre Neurônios Reais e Neurônios em RNA
Neurônios reais nem sempre funcionam na base do gatilho. Pelo contrário eles respondem a suas entradas em modo contínuo. Isto é as vezes chamado de "graded response". O relacionamento entre a entrada e a saída é uma característica universal. Muitas células reais executam uma soma não linear de suas entradas. Eles podem ter significativo processamento lógico (AND, OR, NOT) dentro da árvore dendrítica.
Um neurônio real produz um trem de pulsos e não apenas um simples nível de saída. A consideração de um nível de sinal x, faz perder uma série de informações (tal como a fase do pulso). Os neurônios não têm o mesmo tempo de delay. Não são sincronizados por um relógio central e a quantidade de transmissão em uma sinapse pode variar de maneira imprevisível.
NetTalk
Este projeto visou treinar uma rede a "ler" inglês. Trata-se de uma rede em 3 níveis, com 203 elementos binários na entrada (7 grupos de 29 bits), 80 neurônios na camada intermediária e 26 unidades de saída. A entrada se dá informando um caractere e seus 3 antecessores e seus 3 sucessores, a fim de informar à rede em que contexto tal caractere aparece. O número 29 decorre de 26 letras + 2 sinais de pontuação + delimitador (espaço).
A partir desta entrada o sistema gera fonemas que poderiam ser jogados diretamente em um sintetizador a fim de gerar inglês falado. A rede tem conexões completas: as 203 entradas estão ligadas aos 80 intermediários e os 80 intermediários estão ligados às 26 saídas.
A rede foi treinada com 1024 palavras repetidas 50 vezes (50 ciclos). Com os 80 intermediários, o desempenho chegou próximo a 90%. Se em vez de 80 se colocar 120, chega-se a 90% e, surpreendentemente, se tirarmos a camada intermediária, o resultado chega a 80% (sempre com as palavras constantes na lista das 1024 originais).
Posteriormente fez-se uma comparação entre 2 experimentos: o exp1 teve 120 neurônios na camada intermediária e o exp2 teve 2 camadas intermediárias de 80 neurônios cada. Estes números foram escolhidos porque há uma similaridade no número de ligações entre o exp1 e o exp2 (diferença inferior a 10% no número de ligações). Para as 1024 palavras do treinamento, o desempenho de exp1 é similar ao de exp2. Mas, se passarmos a rodar palavras novas, o desempenho de exp2 será melhor. Se olharmos a gênese do conhecimento da rede, verificamos que ela primeiro aprende a distinguir entre vogais e consoantes, depois começa a reconhecer as sílabas, depois a articulá-las... lembrando o processo de aprendizagem de uma criança
É interessante comparar o NETtalk com seu concorrente comercial o DEc-talk. Este está baseado em regras de lingüística codificadas a mão. Não há dúvidas de que o desempenho do DEC é melhor do que o NET, mas isto deve ser visto no contexto do esforço necessário para criar cada sistema. Enquanto o NET aprendeu a partir de alguns exemplos, o DEC tem uma década de investimento em análise de lingüistas. Isto exemplifica as vantagens das RNA. Elas são fáceis de construir e podem ser usadas mesmo quando o problema não está bem entendido. Entretanto, algoritmos baseados em regras são melhores do que as RNA quando suficiente entendimento está disponível.
Computação Evolutiva
Já tratado neste BB, no número 37 - pg. 37, artigo Algorítmos Genéticos.
Olhando Nosso Trabalho
As origens da maneira como nosso trabalho está organizado nas empresas que nos rodeiam, podem ser traçados até a grande sacada de Adam Smith, que em 1776 escreve o magistral tratado chamado "A Riqueza das Nações".
Logo no começo do livro, Smith descreve uma fábrica de alfinetes. Considerando que a construção de um alfinete tem 8 tarefas diferentes e imaginando 10 empregados na fábrica, Smith diz que ao final de uma jornada de trabalho, cada empregado terá produzido 2 alfinetes, dando um total para a fábrica de 20.
Se, ao contrário, for implantado o que ele chamou de lógica de divisão do trabalho e cada empregado fizer apenas uma ou duas dessas tarefas, passando o resultado do seu trabalho para o próximo companheiro a produção poderá ser grandemente aumentada. Mediante essa rudimentar linha de produção, a mesma fábrica e os mesmos operários, poderão produzir 48.000 alfinetes em um turno de trabalho. O que Smith não disse, mas pode ser dito, é que se a linha for desorganizada, a fábrica terá sorte se ao final do turno um único alfinete tiver sido produzido.
Nascia o conceito de divisão do trabalho e Smith já apontava as grandes vantagens que ele apresentava: os operários não precisavam ser tão qualificados; havia facilidade de intercambiar operários e last but not least, a produção seria muito maior. Essas idéias foram primeiro introduzidas em grande escala nas ferrovias americanas, a partir de 1850. Esse ramo de negócio viu também surgir a primeira burocracia.
Essa idéia também está por trás do grande sucesso alcançado por Ford, na sua indústria de automóveis. Embora a história registre que o grande sucesso dele foi a implantação da linha de produção móvel, na verdade a grande visão dele foi o uso de peças padronizadas. A linha móvel aumentou a produtividade muito menos do que a padronização de insumos. A verdade é que na última fábrica construída por Ford, o trabalho de montagem de um carro havia sido reduzido em 900%, em relação ao início da produção. A história também registra outro avanço na Ford. Foi o conceito de controladoria, implantado magistralmente por MacNamara, quando introduziu métodos sofisticados de planejamento de produção. Ao mesmo tempo, na sua concorrente GM, Alfred Sloan, veio com o conceito de empresa divisonalizada. (Chevrolet, Pontiac, Oldsmobile, Buick e Cadillac). Por trás dessas iniciativas estava o raciocínio de que se o trabalho é dividido em partes minúsculas é necessária uma estrutura de controle, que passam a ser os gerentes e médios gerentes.
O resto da história todos sabemos. As empresas crescem nos dois sentidos: para os lados e para cima. Só que chega um certo momento, em que as idéias de Smith são levadas ao extremo em que o controle dá tanto trabalho que se perde a referência. Outro problema, é que esse crescimento gera altos custos fixos (cada caixinha do organograma quer uma vaga na garagem, uma secretária, um ou mais ramais de telefone...). Mais outro problema que surge, é que quando ocorre um problema com um cliente, a quem ele se dirige ? A morosidade de decisão torna-se uma constante e aparecem os processos AU-AU (ao... ao... ao...).
Nisso surgem os japoneses do pós-guerra, com produtos melhores, com prazos de desenvolvimento menores, com inovações tecnológicas sempre crescentes e a custos competitivos. Passado o susto, cabe ao ocidente fazer a mesma coisa. Note-se que a imitação que o mundo faz do movimento japonês não necessariamente tem a ver com uma possível admiração ou respeito por eles. É um movimento econômico de sobrevivência, para poder competir com eles.
Como Deve Ficar ?
Posta a questão central que é não perder competitividade nesse mundo que se torna mais global a cada dia, surgem as seguintes tendências de condução dos negócios, todas elas baseadas no mote central "orientação ao cliente".
Agrupamento de Tarefas
Há um recuo em relação às idéias de Smith. Tarefas que têm similaridade passam a ser feitas por uma mesma pessoa ou por um grupo de pessoas.
Todas as funções de suporte e infra-estrutura que eram responsabilidade de grandes divisões separadas (pesquisa, recursos humanos, finanças, transportes, marketing, planejamento...) passam a ser integradas e feitas pelo mesmo pessoal.
Vale a pena citar o exemplo da IBM Credit, mostrado no livro de Hammer.
Lá numa linha de produção completa, um contrato de pedido de crédito levava de 6 dias a 2 semanas para ser processado. As etapas pelas quais o contrato passava são:
1. O cliente tem credibilidade ?
2. Fixar as condições de crédito
3. Estabelecer o preço (as taxas de juro)
4. Datilografar os documentos (pool de datilografia)
5. Aprovação do gerente da área
6. Despacho
Querendo estudar o fenômeno e romper a barreira dos 6 dias, um diretor pegou um contrato embaixo do braço e saiu procurando as pessoas e pedindo a elas que fizessem o seu serviço. O resultado ? O contrato estava pronto em 90 minutos.
Cabe a pergunta: E o princípio da divisão do trabalho que tão bem nos serviu por 200 anos ? A resposta é simples: Há 200 anos não havia informática.
Empowerment
É a atribuição do real poder de decisão e execução aos empregados. Não deve ser confundido com democracia. Também não é o mesmo que delegação. Enquanto esta é um poder restrito a uma pequena área, aquele é a atribuição do poder total numa dada função. A principal vantagem é que o problema se resolve rápido. Entretanto, é uma decisão de risco. Tudo o que se tem escrito a respeito, diz que quando a implantação é cuidadosa e acompanhada das outras medidas aqui descritas, o risco compensa.
Interdisciplinaridade
É a reunião de áreas diversas combinadas em times interdisciplinares. O mote para este movimento é que a realidade não apresenta departamentos, apresenta problemas. Quanto maior a organização, mais forte este problema se apresenta. Por exemplo, quem na universidade estuda o Estado? Ou então no Ministério da Saúde, onde existem programas vinculados a determinadas doenças ou grupos etários. Só que ninguém chega no médico e diz "sou adolescente" e sim está doendo meu dedão".
Mais ainda, os conhecimentos interfuncionais facilitam interfaces e atividades de planejamento paralelo. Um conjunto de conhecimentos e perspectiva ampla aumenta a probabilidade de que o produto ou serviço atenda exigências multifuncionais.
Criação de Times
É o trabalho conjunto. É o movimento de arrebentar paredes. O melhor paradigma para este movimento é a MICROSOFT. Não é a simples mexida no organograma da empresa e a mera criação de "círculos de qualquer coisa". Os trabalhadores reagem apenas quando existe um senso de compromisso mútuo, um senso de que a gerência realmente valoriza os trabalhadores qualificados, fará sacrifícios para mantê-los e está propensa a delegar responsabilidades à equipe.
Outra vantagem importante é a melhor qualidade de vida no trabalho
Compressão de Tempo Via TI
Aqui aparece a informática com uma de suas mais nobres vocações: a de acelerar o relógio. Àqueles que pensam "claro que posso terminar mais rápido, mais vai custar uma fortuna", sugere-se jogar essa idéia na cesta de lixo das idéias do que restou da produção em massa (junto, por exemplo, com a idéia de que a qualidade custa caro).
Kaizen
É uma palavra de origem japonesa e que significa melhoria contínua. Parte do pressuposto de que, por melhor que seja um produto ou processo, ele sempre pode ser melhorado, por pequena que seja a melhoria.
Problemas
O primeiro é o desemprego. Claramente, há um movimento no mundo moderno de cortar postos de trabalho. Há por outro lado uma população crescente. Como compatibilizar essas duas coisas ? Outra questão séria, é quem se apropria do resultado desse esforço ?
Por outro lado a era da competitividade trouxe mais trabalho e tensão. Já foi rotulada por trabalhadores americanos de "gerência pelo stress". Isso tem uma ponta de verdade. O sistema de produção moderno bem organizado remove todas as folgas: é por isso que ele é moderno e bem organizado. Há entretanto uma questão importante: a produção moderna é frágil. Sem redes de segurança, ela depende de gerentes e trabalhadores comprometidos e conseqüentemente depende do esforço de cada um deles.
E os Perfis ?
Para responder a esse estado de coisas, o profissional do século XXI precisa fazer algumas coisas.
Generalista
A primeira delas é abandonar a idéia da especialização detalhista. O futuro pertence aos generalistas, com o cuidado devido que há que se ter com essa palavra. O generalista não é o especialista que não deu certo. É, sim, o múltiplo especialista. Um problema que salta aos olhos nessa abordagem é que o maior centro de resistência a essa mudança é a universidade, que deveria ser, por excelência, a provedora desse tipo de recurso. Além de generalista o profissional também é flexível.
Educação Continuada
É preciso capacitar os profissionais a se reciclarem continuadamente. Note-se que se usou a palavra educação e não apenas treinamento. É mais do que isso. Precisamos nos acostumar com a idéia de que entra-se na escola com 6 ou 7 anos e dela nunca mais se sai. A crescente quantidade de coisas que se descobrem e que entram na nossa vida profissional não vai diminuir. Pelo contrário. Assistimos ao fenômeno da substituição da tecnologia e em ciclos cada vez menores. E isso não vale apenas para profissões envolvidas com a informática. Ao contrário, atinge todas elas. Naturalmente, há as mais conservadoras como direito e medicina e as mais dinâmicas (engenharia, por exemplo), mas de alguma maneira todas elas são influenciadas.
Diminuição de Níveis Hierárquicos
Como conseqüência dos novos métodos de produção industrial (o que tem sido chamado de produção enxuta) e como uma extensão das tendências vistas acima (Kaizen, Empowerment, Equipes...), e até como uma maneira de reduzir custos diretos, as modernas empresas têm achatado seus organogramas. A regra (novamente extraída dos japoneses) é simples: "quem não agrega valor ao produto ou serviço, não tem porque estar ali". Novamente, um exemplo clássico é a MICROSOFT, mas não o único. O executivo da SAS, Jan Karlzon, em um inspirado livro, sugere que o organograma de qualquer empresa, por maior que seja, deva ser reduzido a poucos níveis. (E ele ainda sugere que ele seja invertido, o presidente embaixo e os atendedores do público acima. Não é a toa que o livro dele se chama "A hora da verdade", que é quando um cliente entra em contato com a organização).
Relacionamento Disseminação Global de Informações
Nas antiquadas organizações os gerentes tendem a esconder as informações por verem nelas a chave de seu poder. Numa organização moderna, todas as informações: metas diárias de produção, panes em equipamentos, faltas de pessoal, quem ou o que está atrasado e adiantado, necessidades de horas extras, etc., precisam ser bem visíveis por todos.
Há iniciativas de todos os tipos, originalmente baseadas nos quadros andon das industrias japonesas. Há um livro de qualidade de software de Gerald Weinberg que sugere que projetos de software sejam acompanhados através de PPPP (Pôster Público de Progresso do Projeto).
Deve-se notar que não se trata de oficializar a rádio corredor. Não é iniciativa leviana ou simples ou fácil. Mas, para que todos possam se sentir responsáveis, as informações básicas do negócio (todas) precisam estar disponíveis.
Gerente como Provedor e Não (apenas) Controlador
O novo gerente, precisa ser uma pessoa hábil e conhecedora, mas ele não precisa mais trabalhar a portas fechadas. Mais ainda, ele precisa por a mão na massa, seja para treinar, para dar o exemplo, para substituir alguém. Ele precisa se impor pelo respeito técnico do grupo e, antes de ser um cobrador, precisa ser um auxiliar do grupo para que este consiga fazer suas tarefas.
Não é fácil esta mudança de enfoque. Grande parte dos programas de qualidade que se implantam atabalhoadamente por ai, começam a falhar neste quesito. Os gerentes são necessários, eles não são descartáveis, mas o seu papel mudou. A organização que souber lidar com esta condicionante e tiver sucesso, terá dado um passo de gigante.
Ouvir a Ponta
Essa é a contrapartida da inversão do papel do gerente. Agora a ponta (no dizer de Karlzon, os que desempenham "a hora da verdade"), precisa ser ouvida. Vejamos que esta abordagem não é nenhum pouco absurda. Quem realmente executa uma tarefa, pode e deve opinar sobre como otimizar essa tarefa. É claro que a engenharia de produção, ou a otimização através de métodos quantitativos, ou enfim, a moderna administração precisa se fazer presente, com suas ferramentas sofisticadas. Mas o que se sugere aqui é que tais ferramentas são sejam aplicadas mantendo os funcionários da operação divorciados (ou o que pior: contra) o processo.
E o Novo Profissional?
Embora estejamos no terceiro mundo, onde tudo é mais complicado, principalmente em termos de educação básica para a população, não adianta ficar clamando aos céus (ou a Brasília) pela mudança do estado de coisas. Quer dizer, pode ser que adiante um pouco, mas isso não impede que cada um de nós organize sua vida e se programe e planeje para ter um certo valor positivo no mercado de trabalho.
Para ser bem sucedido, o profissional deve:
Ter Intimidade com a TI
Não se fala aqui, de transformar todo mundo em programador BASIC ou equivalente. Não teria o menor sentido. O que se pede, é que as pessoas desenvolvam um sentimento positivo em relação à informática. Nossos filhos já estão fazendo isso, seja em videogames, seja em aulas de informática na escola. Nossa geração é a última na qual se mesclam os sentimentos de respeito e ódio em relação à automação crescente via computador.
Pouquíssimas profissões não têm a lucrar no uso da informática. Existem mais de 50.000 programas de computador para quase todas as finalidades imagináveis e esse número não para de crescer.
Mais ainda, com o advento das interfaces WIMP (window, icon, menus drop-down e pointing devices), o pesadelo de antigamente (que era dialogar com a máquina), hoje, se não está superado, pelo menos foi bem reduzido.
Saber "Esperanto"
No passado foi o latim, no século XIX o francês e hoje ninguém pode duvidar que o esperanto atual é o inglês. A adoção desse idioma por parte do lado oriental do mundo, bem como a predominância econômica e política dos EUA, fizeram com que o inglês se tornasse o linguajar comum de toda e qualquer organização que ultrapassa fronteiras (Por exemplo, na congregação de Madre Teresa de Calcutá, nascida no meio da pobreza do País Indiano, fala-se, pensa-se e até reza-se em inglês).
E como as fronteiras tendem a diminuir de importância daqui para a frente (se não houver recaídas de nacionalismo delirantes), cresce a necessidade de domínio do idioma de Shakespeare. No Brasil vivemos essa situação. Saindo de anos em que as fronteiras eram quase intransponíveis, hoje compramos e vendemos produtos e serviços em todo o mundo. E, cá pra nós não é tão difícil assim: o inglês é muito mais fácil do que o português, a pena é que a gente não aprende ele no berço e nem na escola...
Há mais um agravante e esse diz respeito à TI. Há não muitos anos, o prazo médio de produção de um livro (técnico, que seja) desde a sua concepção até sua disponibilização em livrarias era medida em anos. Havia tempo para traduções e adaptações. Hoje esse tempo se foi. Os livros se obsoletam de uma maneira tal, que não podemos nos dar ao luxo de aguardar anos pela sua tradução. O resultado é esse: ou não há tradução, ou há um arremedo de tal, que ao invés de ajudar, atrapalha. Neste ponto, não há nenhuma dúvida, o negócio é ir ao original.
Entrar no Mundo Global
Este panorama não estaria completo sem falar na Internet. Não devemos nos iludir. Esse vai ser o grande canal de disseminação de informações no século XXI. A possibilidade do trabalho conjunto (o chamado groupware) é expectativa líquida e certa. A busca por soluções onde elas estiverem (abstraindo-se o fator distância e língua, como já se viu acima) deve passar a ser a tônica dominante em futuro não muito distante.
É importante que as nossas organizações disponibilizem aos seus empregados conexões locais a redes Internet-like, orientem, ajudem e impulsionem esse uso.
kantek@lepus.celepar.br
Para Terminar
O novo profissional faz seu planejamento de carreira, sabe que o sucesso dele depende da sua empresa e da empresa depende dele, tem uma certa intimidade com o computador, sabe que seu valor é instável (e conta com isso), faz parte da aldeia global, (está plugado) estuda e trabalha duro para si e para a sua empresa.