Edesio.UEG


24/11/2006


Texto sobre tecnologia

2.2  A Tecnologia da informação

 

A humanidade trabalha com a informação há milhões de anos, entretanto, nas últimas décadas houve um desenvolvimento surpreendente nessa área, através da utilização da tecnologia, destacando-se pela utilização intensa de computadores.

Estamos vivendo uma época toda especial. A velocidade da informação é incrível, tudo muda toda hora, nada é constante. A facilidade com que se deteriora a informação é fantástica, e ao mesmo tempo inacreditável.

Estamos presenciando o surgimento de novos negócios que até pouco tempo eram inimagináveis, como a indústria de componentes eletrônicos, que emprega milhões de pessoas, e os serviços de telecomunicações de dados e difusão eletrônica de informações. Além dos acima citados, inúmeros outros negócios surgiram, em conseqüência dessa evolução, que está longe de atingir o seu limite, mais recentemente podemos citar os negócios de compra e venda que são realizados eletronicamente via [1]Internet.

O conhecimento humano levou mais de um milhão de anos para chegar à fase agrícola; milhares de anos depois chegaram à fase industrial, alguns séculos depois atingiu a eletrônica e em poucas décadas chegou a [2]biotecnologia.

As informações se multiplicam num ritmo tão intenso que é cada vez mais, é impossível a qualquer pessoa, inclusive ao leitor mais voraz, ficar atualizado com tudo o que se publica. Os executivos não conseguem mais estar informado de tudo o que se produz em sua área de atividade, porque mesmo se dedicando a estudar todo o seu tempo, não seria suficiente.

É difícil ver uma revolução quando se está no meio dela. Estamos vivendo uma revolução, no que diz respeito ao trabalho da humanidade. As implicações sociais são grandes. Ao final dessa revolução teremos fábricas altamente automatizadas, canais de distribuição e serviços com redes de computadores integradas. Daqui a cinqüenta anos, voltando os olhos ao passado, iremos rir do que fizemos com os computadores até hoje, é só viver para comprovar.

 


[1] Internet: Termo usado para nomear a rede mundial de Computadores.

[2] Biotecnologia: Nome dado para caracterizar  o desenvolvimento da tecnologia, onde um  termo atual, se comparado  daqui a 10 anos, será motivo de piadas.

Escrito por Edesio às 15h10
[ ] [ envie esta mensagem ]

23/11/2006


Placa-Mãe

PLACAS-MÃE

Principais características

Introdução

Também conhecida como "motherboard" ou "mainboard", a placa-mãe é, basicamente, a responsável pela interconexão de todas as peças que formam o computador. O HD, a memória, o teclado, o mouse, a placa de vídeo, enfim, praticamente todos os dispositivos, precisam ser conectados à placa-mãe para formar o computador. Este artigo mostrará as características desse item tão importante.

Visão geral das placas-mãe

As placas-mãe são desenvolvidas de forma que seja possível conectar todos os dispositivos quem compõem o computador. Para isso, elas oferecem conexões para o processador, para a memória RAM, para o HD, para os dispositivos de entrada e saída, entre outros.

A seguir dados de uma placa-mãe. Trata-se de um modelo Soyo SY-KT880 Dragon 2.

Placas-mãe onboard

"Onboard" é o termo empregado para distinguir placas-mãe que possuem um ou mais dispositivos de expansão integrados. Por exemplo, há modelos que têm placa de vídeo, placa de som, modem ou placa de rede na própria placa-mãe. A motherboard estudada neste artigo possui placa de som (C-Media CMI9761A 6-channel) e placa de rede (VIA VT6103 10/100 Mbps Ethernet) integradas, ou melhor, onboard. Por esta razão, os conectores desses dispositivos ficam juntos às entradas mostradas no item G, visto anteriormente.

A vantagem de se utilizar modelos onboard é a redução de custo do computador, uma vez que deixa-se de comprar determinados dispositivos porque estes já estão incluídos na placa-mãe. No entanto, é necessário ter cuidado: quanto mais itens onboard uma placa-mãe tiver, mais o desempenho do computador será comprometido. Isso porque o processador acaba tendo que executar as tarefas dos dispositivos integrados. Na maioria dos casos, placas de som e rede onboard não influenciam significantemente no desempenho, mas placas de vídeo e modems sim.

As placas de vídeo, mesmo os modelos mais simples, possuem um chip gráfico que é responsável pela geração de imagens. Este, por sua vez, requer memória para tal, principalmente quando trata imagens em 3D. Uma placa de vídeo onboard, mesmo quando acompanhada de um chip gráfico integrado, acaba "tomando atenção" do processador, além de usar parte da memória RAM.

Se um computador é comprado para uso em uma loja ou em alguma aplicação que não requer muito desempenho, a compra de um computador com placa-mãe onboard pode ser viável. No entanto, quem deseja uma máquina para jogos e aplicações mais pesadas deve pensar seriamente em adquirir uma placa-mãe "offboard", isto é, com nenhum item integrado, ou no máximo, com placa de som ou rede onboard.

 

Placa Mãe Off Board

Off-board: Constituem as Placas Mãe em que os componentes ou circuitos que funcionam independentemente da placa mãe e por isso, são separados, tendo sua própria forma de trabalhar e não usando o processador, geralmente, quando vídeo, som, modem ou rede, o dipositivo é "ligado" a placa-mãe usando os slots de expansão pra isso, têm um preço mais elevado que os dispositivos onboard, sendo quase que totalmente o contrário em todos os aspectos do tipo on-board, ou seja, praticamente todo o processamento é realizado pelo próprio CHIPSET encontrado na placa do dispositivo.

 Finalizando

Existe uma série de empresas que fabricam placas-mãe. As marcas mais conhecidas são: Asus, Abit, Gigabyte, Soyo, PC Chips, MSI, Intel e ECS. Apesar da maioria dessas fabricantes disponibilizarem bons produtos, é recomendável pesquisar sobre um modelo de seu interesse para conhecer suas vantagens e desvantagens. Para isso, basta digitar o nome do modelo em sites de busca. Geralmente, o resultado mostra fóruns de discussão onde os participantes debatem sobre a placa-mãe em questão. A pesquisa vale a pena, afinal, a placa-mãe é um item de importância extrema ao computador.

BIBLIOGRAFIA

www.powerline.com.br/ (Outubro – 2006)

Revista Info Digital, edições/2006

www.google.com.br (Outubro – 2006)

 

Escrito por Edesio às 15h06
[ ] [ envie esta mensagem ]

05/10/2006


Tecnologias

    1. Videoconferência

Um sistema de videoconferência é descrito como sendo uma forma de comunicação

interativa que permite que duas ou mais pessoas, em locais diferentes, possam se encontrar face a face através da comunicação visual e áudio em tempo real. Além disso, é possível compartilhar programas de computador, dialogar através de canais de bate-papo, apresentar slides, vídeos, desenhos e fazer anotações em um quadro-branco compartilhado.

A utilização de sistemas de videoconferência surgiu em meados de 1964. Foram utilizados e apresentados ao público, pela AT&T, um produto chamado Picture Phone, onde podia –se visualizar fotos sem movimento ao mesmo tempo em que se ouvia a voz do interlocutor. A novidade não foi bem recebida, pois se tratava de algo novo, sem tradição e sem tecnologia disponível.

Sistemas do tipo freeze frame (congelamento da imagem da TV quadro a quadro) e slow motion (câmera lenta) ponto a ponto surgiram nos anos 70 com o intuito de trazer a novidade para dentro das empresas. Essa tentativa também fracassou porque a redução da banda pelo principio da câmera lenta causava muito desconforto nas pessoas que se aventuravam a experimentar o serviço.

As pesquisas continuaram e nos anos 80 causaram mudanças significativas, através da introdução de técnicas de compressão adequadas. "Essa tecnologia ganhou impulso com a criação de um consórcio europeu onde duas empresas inglesas investiram na utilização de codecs (codificadores/decodificadores - equipamento responsável pela compressão de dados desenvolvidos para sistemas de videoconferência) nas velocidades que cobriam a faixa de 1.544 Kbps a 2.048 Kbps, que possibilitaram um melhor gerenciamento da banda utilizada e diminuição do custo de processamento envolvido" Leopoldino, G. M (2001).

O próximo passo foi o desenvolvimento de codecs para operar nas faixas de velocidade inferiores a 1.544 Kbps, condição que possibilitou o aproveitamento de canais de largura de faixa estreita e de boa qualidade e a custo mais em conta.

Na década de 90 começaram a surgir sistemas, principalmente o CUSSEME, em que deixa de existir a necessidade de uma aparelhagem totalmente dedicada a videoconferência, combinando equipamentos a computadores pessoais.

O aperfeiçoamento técnico vem estimulando a instalação de um número crescente de salas de reunião providas de equipamentos para videoconferência.

Um sistema de videoconferência pode ser classificado em dois tipos: Videoconferência baseada em estúdio, onde e realizada em salas especialmente preparadas com modernos equipamentos de áudio, vídeo e codecs, para fornecer vídeo e áudio de alta qualidade para reuniões, palestras e cursos. E videoconferência em desktop, sendo realizada em residência ou escritório, usando computador pessoal equipado com hardware e software adequado. É mais barata que a videoconferência baseada em estúdio e, portanto, mais apropriada para o uso individual, ou para pequenos grupos.

Porém, o compartilhamento da largura de banda pelos sinais de áudio e vídeo com outros tipos de dados da Internet faz com que haja uma sensível perda da qualidade da videoconferência, causando problemas como retardos no som e vídeo tremido.

Os dois tipos mais utilizados de conexão (link) de comunicação que podem ser utilizados em sistemas de videoconferência são: Redes Comutadas ISDN ou RDSI e Redes IP de Banda Larga, e a qualidade das imagens transmitidas de um ponto ao outro depende essencialmente da qualidade de conexão (do link) de comunicação utilizada. Quanto melhor a qualidade de conexão, maior é a velocidade, por consequência a imagem e o áudio trafegam com qualidade máxima. Os equipamentos podem suportar velocidades entre 128 Kbps até 2000 Kbps, dependendo do tamanho da solução.

Escrito por ed_santos167 às 08h35
[ ] [ envie esta mensagem ]

Tecnologias

 1.2 Segurança em redes de computadores

A princípio as redes foram projetadas com finalidade de pesquisa e o objetivo principal era permitir diversas possibilidades de conectividade entre as partes que estivessem interagindo. Portanto, a interoperabilidade e não a segurança foi enfatizada. Agora, com o crescimento da demanda comercial cada vez mais acentuado, a segurança passou a ser uma necessidade fundamental consistindo foco de discussão das pessoas envolvidas com a tecnologia de redes.

Analisando os principais aspectos e ferramentas da segurança das redes modernas, em especial, aquelas baseadas na tecnologia TCP/IP. A motivação fundamental para este enfoque deve-se a utilização desses padrões na rede mundial, a Internet. Esta rede é considerada por muitos como um dos mais importantes e revolucionários desenvolvimentos da história da humanidade, tendo contribuído fortemente para o que se chama globalização das informações. Através da Internet, qualquer pessoa ou empresa pode (facilmente e a um custo muito baixo), não só ter acesso a informações localizadas nos mais distantes pontos do globo, como também criar, gerenciar e distribuir informações em larga escala, no âmbito mundial. Sua existência vem criando costumes e modificando culturas por todo o mundo. 

A operação em rede possibilita, entre outras coisas, ganhos de produtividade pelo compartilhamento de recursos e propagação da informação, inclusive com a finalidade de divulgação. Contudo, esses benefícios trazem alguns riscos. Conectar-se em rede significa possibilitar, mesmo que sob condições específicas e com algum tipo de controle, o acesso externo aos recursos computacionais, inclusive às informações. Assim, falhas na especificação das condições e controle de acesso podem ser exploradas por usuários da rede, externos ou internos ao sistema de computação/informação, para obtenção de acesso não autorizado aos recursos. Essas falhas nos sistemas podem causar impactos dos mais diferentes níveis, indo desde um simples constrangimento, passando pelo desgaste da imagem corporativa e chegando a perdas financeiras e de mercado.

Torna-se, então, importante definir e configurar regras que determinem a segurança dos sistemas. A definição de uma política de segurança que atenda as necessidades de uma organização, seja ela qual for, deve partir da análise de três fatores: O que proteger, de que proteger e como proteger. 

O alicerce da construção de um ambiente seguro consiste em saber o que precisa realmente ser protegido. Cada organização precisa proteger algo diferente, recursos ou informações, normalmente com graus de proteção diferenciados. Muitas vezes, uma informação é sigilosa para uma organização e para outra não. Por exemplo, para uma organização que tenha em seus dados seu fator crítico, alterações na integridade destes podem acarretar altos custos em termos de horas de trabalho necessárias para análise e recuperação ou prejuízos irrecuperáveis com a perda definitiva de dados. Tal organização deve estabelecer um nível de segurança mais rigoroso em termos de assegurar a integridade do seu sistema. Por outro lado, uma agência de publicidade que esteja ligada a Internet, tem que proteger muito a confidencialidade de seus trabalhos, pois uma propaganda que irá veicular na mídia na semana seguinte, não pode, de maneira alguma, chegar nas mãos da concorrência, pois isto traria muitos prejuízos a empresa. Já em uma universidade, o aspecto confidencialidade não é tão necessário, pois seus trabalhos geralmente são colocados a disposição de outras universidades. Desse modo, a segurança deve ser entendida segundo vários aspectos, dentre eles: autenticidade, confidencialidade, integridade e disponibilidade, os quais serão tratados de forma mais abrangente neste trabalho. 

O segundo passo é saber "De que proteger?". É necessário descobrir quais os tipos de ação podem comprometer a segurança das informações ou do sistema da organização. Atualmente, não somente as grandes corporações são alvo de ataques. Existem mais de 80.000 sites na própria Internet dedicados a atividades de hacking onde é possível obter ferramentas para invasão de sistemas. Essas ferramentas, muitas vezes automáticas, implementam combinações de diversos tipos de ataque, buscando falhas de configuração e vulnerabilidades inerentes aos sistemas adotados nas diversas redes alvo. As providências específicas que uma organização deverá tomar para conter ataques deverão ser baseadas nos objetivos das transações e no que é preciso proteger. 

Outro fato a ser enfatizado é que a segurança deve prever também a proteção e controle da rede internamente. Muitos modelos para segurança de redes têm assumido que os invasores estão do lado de fora. Essa idéia tem feito com que desenvolvedores de sistemas e administradores de rede utilizem uma estratégia simplista na Internet evitando qualquer acesso externo e, por outro lado, liberando o acesso irrestrito para usuários internos, quando grande parte dos problemas está associada a ameaças internas. 

A finalidade de toda análise de segurança consiste em fundamentar a especificação de como os níveis de segurança desejados devem ser atingidos. Assim, depois de conhecer a ameaça, deve-se projetar mecanismos para prevenir, detectar ou recuperar-se de um ataque.

Nesse sentido, são desenvolvidas diversas ferramentas para avaliação das vulnerabilidades das redes, bem como para sua proteção, onde se destacam técnicas

de criptografia e softwares firewalls e proxies. Essas ferramentas possibilitam, além da proteção preventiva do sistema, a realização de auditorias que permitam identificar a ocorrência de ataques e rastrear a origem destes. 

A análise destes fatores vai fundamentar uma avaliação dos custos e benefícios envolvidos na determinação e implantação de uma política de segurança adequada. "As maiorias dos métodos para determinação dos riscos e prejuízos produzem resultados descritivos (análises) e não quantitativos" (Prof. MSc Puttini 2000). Isso expressa a complexidade se calcular prejuízos decorrentes de um segurança fraca ou inexistente. Mas é certo assegurar que o custo de implementação de ferramentas para segurança do sistema é bem menor que os custos e prejuízos advindos da falta de segurança.

 

Escrito por ed_santos167 às 08h28
[ ] [ envie esta mensagem ]



Perfil