Aqui você encontra infomações sobre Informática, Eletrônica, Elétrica, Mecânica e Automação

quinta-feira, 30 de abril de 2009

Extensões de arquivos perigosas: conheça mais e não caia em armadilhas

Muitos arquivos são mais perigosos do que outros para a propagação de vírus. Conheça esses arquivos e evite esses perigos.

A palavra extensões é extremamente frequente no vocabulário de quem usa um computador. Mas nem todos conhecem seu conceito. A definição de extensão pode ser simplificada. Já reparou que todo arquivo de computador tem o nome complementado com três letras? Essas três letras indicam a extensão do arquivo, também conhecida pelo termo formato.

Por sua vez, a extensão é um indicativo da finalidade de um arquivo e de quais programas podem ser utilizados juntamente com ele. Exemplo mais comum hoje em dia pode ser a extensão MP3. Ela indica arquivos de áudio que devem ser executados em tocadores compatíveis.

Definição técnica

Um formato de arquivo, tecnicamente definindo, é a maneira específica com a qual as informações nele contidas foram codificadas. Uma vez que qualquer fonte de armazenamento em um computador pode somente armazenar bits, o computador precisa de uma maneira de converter a informação para dígitos binários (0 e 1).

Onde está o perigo?

O que acontece com muita frequência é o uso de extensões vitais para um computador para a criação e propagação de vírus. Neste sentido, algumas extensões merecem atenção:

CMD – é a abreviação para command (comando, em inglês). Neste sentido, trata-se de uma “ordem” para um programa ou componente de um sistema executar uma tarefa específica.

BAT – este é um arquivo de texto com uma sequência de comandos, escritos linha por linha. É um conjunto de instruções utilizado para executar várias instruções de uma só vez.

SCR – extensão para papeis de parede.

EXE – arquivos executáveis que não precisam de nenhum software para ativá-los, eles são autoexecutáveis.

VBS – sigla para Visual Basic Script (script para Visual Basic), é uma linguagem que acessa elementos de ambientes que utilizam a linguagem.

WS – sigla para Web Service, trata-se de uma interface que pode ser acessada pela internet e executada em um sistema remoto.


Devido à estrutura desses formatos e à maneira como eles acessam um sistema, eles são largamente utilizados para a propagação de vírus. As extensões CMD e BAT são extremamente perigosas porque podem executar tarefas que deixam um computador à mercê de um malfeitor pronto para roubar informações preciosas da vítima.


Já a extensão SCR não tem o mesmo tipo de acesso, mas é extremamente eficiente porque o usuário pensa que se trata de um simples protetor de tela. Ao acessar o arquivo, o problema surge. A extensão EXE, por sua vez, é notadamente uma fonte perigosa, mas mesmo assim muitos usuários não prestam atenção onde estão clicando.

As extensões VBS e WS são pouco utilizadas, uma vez que muitos clientes de email bloqueiam automaticamente este tipo de conteúdo. No entanto, elas também causam grandes estragos quando acionadas. Em menor escala – muito menor, diga-se de passagem –, extensões do Office (DOC, XLS, MDB e PPT por exemplo) também são utilizadas. No geral elas carregam vírus simples e não muito perigosos.

Logo, ao receber um email com um arquivo deste tipo, pense duas, três, 100 vezes antes de abri-lo. Mesmo que o remetente seja conhecido, ele também pode ter sido vítima de um código malicioso. Isso porque muitos vírus são programados para se espalhar através de uma pessoa infectada. O vírus é capaz de acessar os contatos de um email, por exemplo, e enviar a mensagem maliciosa para todos eles. Logo, mesmo que você conheça o remetente, não confie cegamente.




Outro motivo para não confiar nem mesmo em conhecidos são os comunicadores instantâneos (messengers). Um contato infectado pode enviar arquivos e links maliciosos sem que a vítima perceba. Uma dica é você avisar imediatamente um contato conhecido que lhe enviou um link suspeito, pois muitos deles podem nem ter consciência que estão infectados.

Além de emails, eles também utilizam phishings (páginas falsas que se assemelham às de instituições de confiança para enganar os usuários). Neste caso, o perigo é ainda maior, pois basta ser direcionado à página maliciosa para acessar o vírus.

Dicas para sua segurança

1º Antivírus e outros componentes de segurança

A primeira regra para um usuário de computador nos dias de hoje é instalar um antivírus e mantê-lo sempre atualizado, executando scans periódicos por todo o computador. Para complementar essa proteção, tenha também programas de segurança específicos, como antispyware, firewall e outros.

2º Desconfie quase sempre

Isso não significa ser paranoico, mas prudência é fundamental. Preste atenção a arquivos anexos em mensagens de email. Veja se o texto da mensagem não está muito generalizado, com a cara de que foi enviado para muitas pessoas "roboticamente". Se for o caso, responda ao remetente para conversar sobre a procedência de um arquivo.

Tenha muito cuidado também com links enviados. Antes de clicar neles, experimente posicionar o cursor do mouse sobre eles SEM clicar. Olhe para o canto esquerdo inferior do navegador, este é o endereço real do link. Caso ele seja suspeito ou diferente do link enviado, tenha cuidado. O que acontece, nesses casos, é o uso de uma máscara.

Um código malicioso é capaz de enviar um link como www . google . com . br, que é de confiança. Porém, esta pode ser apenas uma máscara que camufla o endereço real do link.






3 º Phishings

Phishings são sites “clones” de sites de empresas de confiança. Muitos bancos, por exemplo, já tiveram sites clonados. São cópias idênticas aos originais que dificilmente são identificados visualmente como fraudes. Ao acessar sites de bancos ou outros sites nos quais é preciso fornecer informações pessoais, preste atenção nas indicações do seu navegador. Símbolos como um cadeado destacado ou uma barra de endereços com a coloração verde (no Internet Explorer), indicam a autenticidade da página.

Preste também atenção ao endereço acessado. Qualquer expressão fora do normal pode indicar uma fraude. A dica do cursor do mouse também vale aqui.




4º Atenção com as extensões

Em muitos casos, o Windows não exibe a extensão de um arquivo após o nome. Logo, um malfeitor que espalhar um arquivo com o nome “documento.txt.exe” poderá ter sucesso, uma vez as três últimas letras podem estar ocultas.

Para sempre visualizar as extensões dos arquivos, acesse o Windows Explorer ou o Meu Computador. Acesse o menu "Ferramentas" e clique em "Opções de Pasta". Clique na aba "Modos de Exibição". Desmarque o item “Ocultar as extensões dos tipos de arquivos conhecidos".



5º Não seja um gatilho

Lembre-se do princípio básico de arquivos maliciosos: eles precisam de um gatilho, que geralmente é um usuário descuidado. Infelizmente, navegar pela internet atualmente é como andar em um campo minado. O cuidado com tudo que circula muitas vezes é exagerado, mas se faz necessário diante de tantas ameaças por aí.

segunda-feira, 27 de abril de 2009

Saiba mais sobre o µTorrent 1.8.2


Agora não há mais motivos para temer os tão comentados e utilizados arquivos torrent. Com o µTorrent, o download desses arquivos torna-se fácil para qualquer pessoa. Muitos usuários não utilizam as redes de torrent devido à maneira como se fazem os downloads. Ao contrário de outras redes em que os arquivos são encontrados e simplesmente baixados, os arquivos torrent necessitam que um pequeno arquivo com os dados de fontes seja carregado previamente, o que gera muita suspeita para quem é leigo no assunto.

Versátil e Eficaz

Não há motivo para preocupação. Estes pequenos arquivos funcionam como uma espécie de guia que fornecem as coordenadas para o download, tais como: endereço da fonte, nome do arquivo e tamanho. A função de um cliente torrent, portanto, é a de executar esses pequenos guias e iniciar o download, de modo que você possa gerenciá-lo e acompanhar o seu progresso.

Rapidez

A grande vantagem dos arquivos torrent em relação a downloads diretos está no mecanismo de distribuição, o qual compartilha automaticamente os pedaços baixados por cada usuário, minimizando (e muito) o uso do servidor. Deste modo, todos compartilham trechos do arquivo entre si e elimina-se o problema com filas para download, encontrado freqüentemente em servidores diretos.

Praticidade

µTorrent não requer instalação e permanece na barra de sistema (ao lado do relógio), ocupando menos de 6MB de memória RAM! Mesmo sendo tão portátil, oferece inúmeros recursos para o controle de downloads, bem como definição de prioridades e informações sobre as fontes. Além disso, conta com uma interface muito agradável e de fácil uso, com botões ilustrados muito bem definidos.

Recursos

- Configurar e agendar tarefas.
- Limitação de velocidade global ou por arquivo.
- Continua downloads pausados rapidamente.
- Download de RSS.
- Suporte a Mainline DHT.

A UNIÃO BITTORRENT E UTORRENT

Se você conhece os clientes BitTorrent e µTorrent e percebeu muitas semelhanças entre eles nas suas últimas versões — mais semelhanças que o normal entre clientes torrent —, tudo pode ser facilmente explicado. Afinal, não se trata de uma mera coincidência. O criador do BitTorrent, Bram Cohen, anunciou, em dezembro de 2006, que havia comprado o µTorrent, concorrente mais leve e com recursos inovadores.

Em 2007, o BitTorrent lançou a primeira versão do programa que conta com as melhorias trazidas pelo µTorrent. Além disso, poucos dias antes, o próprio µTorrent também foi lançado com os benefício de seu comprador.

O BitTorrent trouxe de seu ex-concorrente a base da interface, além dos conteúdos dos menus na barra deles. Isso significa que funções avançadas, como aprimorar a sua interface Web, foram finalmente adicionadas ao BitTorrent. Outro benefício “importado” foi a leveza. Uma das principais características do µTorrent é que ele quase não exigir nada de seu sistema, e o BitTorrent se aproveitou disso e ficou mais leve também.

Ambos possuem rastreador RSS e barra de pesquisas, mas é justamente aí que os dois programas seguem caminhos diferentes. O µTorrent direciona suas buscas no MiniNova, enquanto que o BitTorrent busca no site homônimo, que possui a maior parte de seu conteúdo pago. Além disso, o BitTorrent oferece o serviço Get Stuff, com links para filmes, TV, música e jogos, tudo no site do cliente.

Não há sinais que Bram Cohen vai abandonar um dos dois clientes. Um desses sinais é o fato de que o BitTorrent continua com o código aberto e o µTorrent continua com o mesmo fechado. O simples fato de manter dois programas distintos também indica essa preocupação de não acabar com nenhum deles.

Em discussões em diversos fóruns, comenta-se que o µTorrent poderia ser uma versão portátil do BitTorrent, mantendo este último como uma versão convencional para desktop. No entanto, não há nada que confirme esses boatos.

Para baixar o µTorrent 1.8.2,
clique aqui.


quinta-feira, 23 de abril de 2009

Conheça como é uma placa-mãe sem medo

Neste artigo você vai conhecer quais são as partes que compõem a placa-mãe e o que cada uma delas faz. Serão abordados os pontos principais deste importantíssimo componente do computador, e o qual a função de cada um deles.

A placa-mãe (também chamada de mainboard, ou ainda, motherboard), como o próprio nome sugere, é um componente indispensável para qualquer computador. É nela que se conectam todos os outros periféricos, tais como processador, memórias, discos rígidos, mouse, teclado, placas de vídeo, placas de som e quaisquer outras placas que façam parte do computador.

A placa-mãe

A forma como os slots, conectores e chipsets estão distribuídos variam de acordo com o fabricante e o modelo da placa, mas os componentes principais são os mesmos em todas elas. Na foto abaixo você pode visualizar uma placa-mãe. Nela estão destacados as principais características que a compõe, e esses pontos serão explicados a seguir.




Existem vários modelos de placas no mercado, cada qual com suas diferenças e peculiaridades. Por isso, pegamos como exemplo a placa-mãe ASUS P5Q-C meramente para ilustração, pois ela é híbrida em relação à memória (tem DDR3 e DDR2).

Atualmente as placas-mãe vêm apresentando cada vez mais diferenciais. Algumas placas, como esta, possuem suporte tanto para DDR2 quanto para DDR3, o que é muito interessante, pois caso mais tarde você deseje fazer um upgrade de memória não será necessário trocar de placa-mãe, e com o constante avanço da tecnologia é sempre bom adquirirmos produtos que possuam maior autonomia.

Soquete




Uma das principais características de uma placa-mãe é qual o soquete que ela possui. O soquete é o lugar onde é encaixado o processador, e de acordo com a quantidade de pinos para encaixe que ele possui é que definimos qual é o soquete. Tecnicamente, isso é chamado de pinagem, e é o que define qual família de processadores é suportado pelo placa.

Os principais modelos de soquete usados hoje são o soquete 775 da Intel, o qual serve para modelos Core 2 Duo, Pentium 4, Pentium D e Celeron D, e o soquete AM2/AM2+ da AMD, que é o soquete utilizados pelos processadores Phenom, Athlon 64 e Sempron.

Chipset

Outro componente de grande importância nas placas-mãe é o Chipset. É ele quem controla os barramentos, acesso à memória, dentre outros. Hoje em dia, ele é divido em dois (na maioria das vezes), que são a Ponte Sul (South Bridge) – que controla a memória, barramento de vídeo (slot AGP ou slot PCI-Express), e transfere dados com a Ponte Norte – e a Ponte Norte (North Bridge) – que controla componentes, periféricos, tais como HDs, portas USB, barramentos PCI, dispositivos de som e rede,

O Chipset é também uma espécie de delimitador de capacidade nas placas-mãe. É ele quem vai definir qual a quantidade e tipo de memória suportada, quantos e quais tipos de HDs serão suportados (por exemplo, HDs SATA), qual a velocidade máxima que o processador que será ligado à placa-mãe poderá ter, dentre outros.

Componentes Onboard

Além de definir tudo o que foi citado acima, o Chipset também especifica quais componentes onboard farão parta da placa-mãe. Componentes onboard nada mais são que dispositivos que vêm junto com a placa-mãe – na maioria das vezes composto som, rede, e vídeo (este último nem sempre está presente) – para que você não precise comprar placas separadas para poder ter as funcionalidades que eles possuem, barateando assim o custo do seu computador.

Slots

Memórias

Os slots de memória variam de acordo com o tipo de memória suportado. Por exemplo, uma memória do tipo DDR2 não encaixa em um slot para memórias DDR3, e vice-versa.




Conexão com HD/Drivers ópticos

Os slots usados para a conexão entre a placa-mãe e HDs/drivers de CD/DVD são os famosos IDE e SATA/SATA2. Atualmente, o mais rápido e que está sendo cada vez mais usado no mercado é o slot SATA2. Em relação aos SATAs “normais”, ele é duas vezes mais rápido, uma vez que a taxa de transferência de dados do SATA é de 150MB/s e do SATA2 é de 300MB/s.




É possível ligar dispositivos feitos para SATA 2 em entradas SATAs "normais", porém o dispositivo não irá funcinar com toda a velocidade que poderia funcionar se conectado no slot correto.

Slots de Expansão

Os slots de expansão servem para que seja possível adicionar recursos à sua placa-mãe. Neles você conecta placas de rede, placa de som, modems, placa de captura, etc. Os mais usados atualmente são os slots PCI (Peripheral Component Interconnect), PCI-Express 1x, PCI-Express e AGP (os dois últimos servem apenas para placa de vídeo.



Placas de Vídeo

Os conectores de vídeo mais atuais são o PCI-Express, PCI-Express 2,0 e o AGP (este último já se encontra-se praticamente fora do mercado, mas ainda é muito utilizado). Assim como frisamos para os slots de memória, para estes slots também é impossível conectar uma placa que possua slot AGP em uma que possua slot PCI-Express. Entretanto, é possível conectar placas PCI-Express 2.0 em slots PCI-Express, porém, haverá redução de desempenho.

Outro item relevante é a possibilidade de ligar duas ou mais placas de vídeo no mesmo computador. Algumas placas-mãe possuem mais de um slot PCI-Express ou PCI-Express 2.0 e permitem que você conecte as placas para assim conseguir um desempenho superior. Para as placas Nvidia, a tecnologia chama-se SLI, e para as placas ATI, Crossfire.

Conectores de Alimentação

O conector de alimentação é o local onde você deve conectar a fonte (a qual distribui energia elétrica à placa e todos os demais componentes) à placa-mãe. Existem dois modelos padrão: os AT e os ATX. O primeiro é mais antigo, e praticamente já está fora de linha.

O segundo é o mais atual, e é o mais usado. Há também conectores auxiliares que servem para suprir a demanda de energia do processador, fazendo com que haja maior estabilidade no funcionamento. Vale lembrar que a fonte é um item de extrema importância para o bom funcionamento do computador.


Bios e Bateria

Muitas pessoas não sabem, mas o computador faz uso de uma bateria. Essa bateria é responsável por manter o chip do BIOS (Basic Input/Output System) configurado (o que também significa manter as informações da data e hora do sistema), o qual é responsável pelo controle básico do hardware.

É no BIOS que se localiza o software do Setup, local onde você configura os dispositivos da placa-mãe. Lá é possível desativar dispositivos onboard (USB, som, rede, etc.), ajustar data/hora, configurar velocidade do processador, dentre outros. Para acessá-lo, basta você pressionar a tecla DEL logo após seu computador ligar (em alguns computadores a tecla de acesso pode ser outra).

Jumpers

Jumpers são compostos de pequenos “quadradinhos” plásticos revestidos de metal por dentro. Estas pecinhas servem para serem colocadas em pequenos pinos que se encontram na placa-mãe. De acordo com o modo como estes “quadradinhos” são colocados nos pinos, diferentes configurações da placa-mãe podem ser mudadas.

Existem ainda jumpers que servem para a conexão de cabos do gabinete. Estes cabos servem para que funcionem o botão ligar/desligar, reset, os leds do gabinete, etc. Também existem jumpers que servem para a conexão de saídas auxiliares, que são aquelas portas USB e de áudio que se localizam na frente do gabinete, ou ainda, outras saídas USB que são ligadas com placas auxiliares atrás do gabinete. Para mais informações você deve ler o manual da sua placa-mãe.

Portas de Entrada

PS/2 e USB

As portas PS/2 servem para conexão do mouse e do teclado no computador. A maior vantagem de utilizar mouses e teclados com este padrão de conexão é que assim ficam liberadas mais portas USB em seu computador. Já a porta USB é a porta de entrada mais “versátil” da placa-mãe. Nela você pode conectar inúmeros dispositivos, de placas de captura à pendrives. Ela é uma porta do tipo Plug & Play, na qual você pode ligar dispositivos sem a necessidade de desligar o computador.

Atualmente existem dois modelos de porta USB no mercado: USB 1.1 e USB 2.0, a qual é a mais utilizada nos dispositivos ultimamente, justamente por ser mais rápida. Já foi anunciada a porta USB 3.0, que pretende ser 10x mais rápida que a USB 2.0.

Firewire

A porta Firewire é uma concorrente direta da porta USB (apesar da USB já ter ganhado a briga, devido ao baixo custo), sendo mais rápida que ela. A Firewire serve para a conexão de dispositivos digitais, tais como câmeras digitais.

segunda-feira, 20 de abril de 2009

O que é SSL?

Um termo usado em segurança que vale a pena você conhecer.

Com o aumento do uso da Internet para fins comerciais, tornou-se imprescindível a criação de meios que possibilitem a comunicação entre duas pessoas, através da rede, em total segurança. Dentre os diversos protocolos de segurança existente, existe um muito importante, que merece nossa atenção.

Trata-se do SSL (Secure Socket Layer). Ele permite que aplicativos cliente/servidor possam trocar informações em total segurança, protegendo a integridade e a veracidade do conteúdo que trafega na Internet. Tal segurança só é possível através da autenticação das partes envolvidas na troca de informações.


Entendendo como funciona

Uma conexão utilizando SSL é sempre iniciada pelo cliente. Quando um usuário solicita a conexão com um site seguro, o navegador web (Firefox, Internet Explorer, Opera, Chrome, etc.) solicita o envio do Certificado Digital e verifica se:

a) O certificado enviado é confiável.

b) O certificado é válido.

c) O certificado está relacionado com o site que o enviou.

Uma vez que as informações acima tenham sido confirmadas, a chave pública é enviada e as mensagens podem ser trocadas. Uma mensagem que tenha sido criptografada com uma chave pública somente poderá ser decifrada com a sua chave privada (simétrica) correspondente.

Pense na mensagem como sendo uma fechadura e que ela possui duas chaves, umas para trancar (criptografar) e outra para destrancar (decifrar) a porta. Um pouco complicado não?! O desenho abaixo deixa mais claro a ideia envolvida por trás do SSL.


Para saber mais

Um servidor web protegido pelo protocolo SSL possui uma URL que começa em "https://", onde o S significa “secured” (seguro, protegido).

Alguns algoritmos famosos de criptografia utilizam o protocolo SSL. Veja abaixo alguns deles:


DES e DSA - algoritmo de criptografia usado pelo governo americano.

KEA - usado para a troca de chaves pelo governo americano.

MD5 – muito usado por desenvolvedores de software para que o usuário tenha certeza que o aplicativo não foi alterado.

RSA - Algoritmo de chave pública para criptografia e autentificação.

SHA-1 -também usado pelo governo americano.


A versão 3.0 do SSL exige a autenticação de ambas as partes envolvidas na troca de mensagens. Ou seja, tanto cliente quanto servidor deve fazer autenticação e afirmar que são que dizem ser.

sábado, 18 de abril de 2009

Como saber se estou baixando um arquivo falso no eMule?

Como saber se estou baixando um arquivo falso no eMule?


O eMule com certeza é um dos mais usados programas P2P (peer-to-peer) até hoje. Talvez isso se deva à imensa variedade de arquivos que podem ser encontrados no programa — algumas coisas realmente raras.

Apesar disso tudo, você nem sempre sabe se o que vai baixar no programa é, de fato, aquilo que você espera. Geralmente porque são arquivos comprimidos, em ZIP, RAR, ou qualquer outro formato do gênero. E isso acontece exatamente porque é um programa de compartilhamento de arquivos.

Algumas pessoas simplesmente são dedicadas demais ao compartilhamento, porque assim ganham pontos para o que forem baixar, ficando na frente dos outros nas filas de download. Só que, algumas pessoas (por trapaça ou qualquer outro motivo) renomeiam arquivos aleatórios para coisas que possam interessar várias pessoas — um jogo, um programa ou uma música, por
exemplo.

Como posso saber se o que vou baixar é verdadeiro?

Primeira maneira: às vezes, há um ícone que é uma espécie de dois “i” juntos. Ele pode ser branco, vermelho, amarelo ou verde. Se o ícone for branco (1), significa que ele ainda não foi avaliado por nenhum usuário. Se os dois “i” estiverem vermelhos (2), o arquivo é definitivamente falso. Se for um vermelho e um branco (3), o arquivo é ruim. Se for amarelo (4), é razoável (nem bom, nem ruim). Um “i” verde e outro branco (5) significa que o arquivo é bom. Mas, se é tudo verde (6), o arquivo é excelente.


Segunda maneira: primeiro, clique para baixar o arquivo. Vá na aba Transferências, e clique com o botão direito sobre o arquivo que você está baixando. Selecione então a opção “Exibir detalhes do arquivo”.




Na janela que se abre, vá na aba Nome. Provavelmente aparecerão vários nomes em uma lista. Esses nomes devem corresponder ao que você está baixando. Por exemplo: se você está baixando uma música do Beethoven, isso deve aparecer na lista. Se os nomes que aparecerem na lista forem relacionados ao que você quer baixar, isso significa que o arquivo é realmente verdadeiro.


É claro que as duas maneiras não são 100% garantidas. Isso não significa que você não pode encontrar arquivos falsos bem avaliados ou com vários outros que tenham o mesmo nome. Mas é uma ótima maneira de diminuir os riscos de se baixar arquivos falsos ao invés de ser o que você esperava.

quarta-feira, 15 de abril de 2009

Melhor posição para roteadores sem fio

Problemas com rede wireless? Talvez o motivo seja a posição do modem. Veja algumas dicas para melhorar isso.



O uso de roteadores sem fio tem sido cada vez mais comum de um tempo para cá. Devido à maior acessibilidade a computadores pessoais e notebooks, a necessidade de uma conexão mais prática torna possível este sucesso das chamadas rede wireless.

É comum encontrar residências com mais de um computador, e muitas vezes a melhor opção nem sempre é puxar cabos para conectá-las a internet. Em empresas também o uso de wireless é uma boa alternativa, mais prática e visualmente agradável do que cabos.

Contudo, muitas pessoas encontram problemas com este tipo de conexão. É comum encontrar reclamações em fóruns pela internet a fora, registrando que em alguns cômodos da casa a conexão parece ficar mais lenta e instável, o que sem dúvida causa alguma irritação.

Por que existem estes problemas?

São pelo menos dois os motivos que levam a interferências em redes sem fio: obstáculos físicos (como paredes, móveis, etc.) e também outros tipos de rede sem fio (como aparelhos com Bluetooth, por exemplo). Em ambos os casos a conexão wireless pode ser prejudicada e você não irá aproveitá-la ao máximo.

Se você posiciona o modem em um local onde existem muitas paredes entre ele e o computador sendo utilizado, isto irá diminuir a força da transmissão e, consequentemente, sua conexão não será plena. Se existem outros tipos de aparelhos que usam conexões sem fio, ambas as conexões podem se “confundir” e então funcionar de maneira deficiente. Até mesmo um forno microondas pode intervir negativamente em sua conexão wireless.

Qual a melhor posição do roteador?

É fato que quanto mais distante do modem estiver o computador, mais fraca e lenta será a conexão. Portanto, a melhor posição de um roteador é em uma parte central da casa. Isso, obviamente, no caso de haverem mais de uma máquina conectada ao modem – o que normalmente acontece quando se tem um roteador sem fio.

Se você possui um notebook e deseja utilizá-lo em diversos cômodos da casa, então permanece a dica de deixar o modem em uma área central. Agora, se você possui dois computadores em dois cômodos diferentes, o ideal é deixar em uma posição cujo raio de alcance rede sem fio abranja as duas máquinas.


Além disso, deixar o modem em algum lugar elevado também ajuda bastante. É importante ressaltar que objetos metálicos e paredes de vidro também prejudicam a recepção do sinal por seu computador. Obstruções em geral são prejudiciais, mas paredes de vidro são “piores” do que paredes de madeira ou tijolo para o bom funcionamento de sua conexão.



Outras dicas

Antenas



O posicionamento do equipamento é bastante importante, mas existem alguns apetrechos que podem ajudar no bom funcionamento de sua conexão wireless. As antenas que vêm junto com o aparelho são onidirecionais, ou seja, emitem ondas para todos os lados, o que podem causar algum “desperdício” de sinal.

Se você pretende deixar o modem em uma área central para que vários computadores tenham acesso a ela, esta antena está perfeita! O que pode ser feito é a aquisição de uma nova antena onidirecional com alcance maior. Contudo, se você tem dois PCs em um quarto, por exemplo, a aquisição de uma antena direcional pode ajudar a otimizar a transmissão do sinal para suas máquinas.







Repetidores

Outra opção para melhorar a qualidade de sua conexão wireless é a utilização dos chamados repetidores. Estes são aparelhos autônomos, sem fio, que captam o sinal e o retransmitem sem perda. Ou seja, eles aumentam a capacidade de alcance da sua rede sem fio, fazendo com que ela chegue com a mesma potência a um local mais distante e também a pontos cegos da cobertura do roteador.

Roteadores sem fio são uma presença cada vez mais constante em residências e empresas e algumas poucas informações podem fazer sua conexão melhorar consideravelmente. Apesar das dicas de antenas e repetidores, não vai lhe custar nada mais reposicionar seu modem, o que significa que não haverá mais gastos para otimizar sua rede sem fio.

segunda-feira, 13 de abril de 2009

Desfragmentação de disco: por que fazer e como ocorre?

Você provavelmente já deve ter visto vários sites ou ouvido muitos técnicos comentarem o quão importante é realizar uma desfragmentação periódica em seu PC. Contudo, ninguém nunca te explicou o porquê de fazer isso, a única frase que utilizam sempre é: faça a desfragmentação, porque ela deixa o computador mais rápido.

Entulhando o disco rígido

Para você ter uma ideia do porquê de fazer a desfragmentação, é necessário primeiramente entender como os arquivos são armazenados no disco rígido.Pois bem, vamos a uma explicação simples. O armazenamento de arquivos depende principalmente do sistema operacional, porém vamos abordar somente a maneira como o Windows trabalhar com os arquivos, porque ele é o sistema que mais necessita de desfragmentação.

Primeiramente confira o infográfico abaixo e então leia o texto explicativo.

Legenda: HD com o sistema recém-instalado

Na imagem acima, você pode conferir o exemplo de um HD que tem o sistema Windows recém-instalado, programas gerais, alguns jogos e softwares específicos de porte maior. Na figura abaixo você verá o que acontece quando você remove alguns dados que estejam no disco.

Legenda: Após deletar alguns dados e desinstalar programas, o HD fica com buracos




Repare que as partes que estão preenchidas com um degradê de preto e branco são as áreas onde havia algum programa ou jogo. Agora que este conteúdo foi apagado (desinstalado), o disco rígido fica com buracos, não fisicamente, mas virtualmente são espaços onde não há nada instalado. Repare na figura a seguir, o que acontece quando instalamos algo novo no disco rígido.

Legenda: Novos aplicativos irão entrar nos buracos


Veja que as áreas pintadas com uma mistura de tons de verde é o espaço ocupado pelo Jogo 4. Contudo, o Windows não conseguiu inseri-lo em um mesmo espaço, sendo que foi necessário separar os dados em partes. Uma parte do jogo está bem distante das outras duas, fator que irá complicar muito na hora em que você for abrir e utilizar o conteúdo deste jogo (mais adiante há uma explicação mais detalhada).

Além disso, o “Espaço Livre 2” é uma área onde havia conteúdo e agora não há mais, que futuramente estará com muitos outros dados. Confira na imagem abaixo, como seu HD pode ficar após um ano — ou até menos tempo — de uso, de tanto instalar (e desinstalar) jogos e programas e de salvar tantos dados no disco.



Legenda: Após muito tempo, o HD virou uma bagunça e está todo fragmentado


Note o que o Windows se obriga a fazer quando você não para de instalar e desinstalar softwares. Ele reparte tudo, deixa cada parte dos programas e dos documentos espalhados pelo disco rígido, exatamente como se os programas estivessem em fragmentos. Isso começa a dificultar cada vez mais o acesso a qualquer arquivo dentro do HD, porque seu disco terá de ler um pedaço do arquivo na parte inicial do disco e outro no final.

O Windows quebra qualquer arquivo

Para não ter de ficar trabalhando constantemente, o Windows se aproveita de qualquer espaço vazio que você tenha em seu disco rígido. Suponhamos que você deletou alguns arquivos de música que totalizavam 30 MB. Logo após isso, você baixou o trailer de um filme que tem 50 MB de tamanho. O Windows não irá perder tempo organizando seus arquivos para colocar o trailer completinho em um mesmo lugar. Ele simplesmente deixa 30 MB do trailer onde estavam seus arquivos de música e coloca os outros 20 MB em outro setor qualquer.

Organizando a bagunça e juntando fragmentos

O Windows é um sistema que tem uma tendência bem maior a deixar os dados do disco rígido sempre bagunçados. Sabendo disso, a Microsoft incluiu no sistema um desfragmentador de disco e usá-lo é uma obrigação do usuário que não quer ter um sistema operacional veloz funcionando como uma “lesma”. Portanto, é altamente recomendado que a cada três meses (ou até em menos tempo que isso) você execute o desfragmentador. Veja no infográfico o que o desfragmentador faz com os dados do disco rígido.



Legenda: Ao desfragmentar, o Windows agrupa as pastas e arquivos do mesmo tipo em um mesmo local.


Repare que o desfragmentador do Windows agrupou os jogos num mesmo local, os documentos estão todos juntos, os softwares agora ficam em um mesmo setor do disco. Vale frisar que o desfragmentador obedece à ordem das pastas e não dos tipos de arquivos. O processo não se resume somente a organização dos arquivos, mas principalmente a união dos fragmentos dos arquivos, daí o nome “Desfragmentador”.

Por exemplo: ele verifica que você possui o jogo Gears of War instalado, contudo, durante a instalação não havia espaço suficiente em um mesmo setor, sendo que o instalador foi obrigado a separar os 10 GB (GigaBytes) do jogo em vários locais.

Sendo assim, o desfragmentador irá unir todas as DLLs, arquivos de som, vídeo e demais arquivos do Gears of War em um mesmo local, para que quando você for abrir o jogo, o Windows não tenha de buscar as DLLs necessárias em outro local.


Por que ao desfragmentar, os arquivos de mesmo tipo não ficam num mesmo lugar?

Pois bem, para explicar isso é bem fácil, pegue o mesmo exemplo utilizado acima. Caso o desfragmentador unisse todas as DLLs do seu disco em um mesmo setor, o sistema operacional teria um grande problema para rodar o jogo, porque ele teria de abrir o executável do arquivo num local do disco e procurar as DLLs junto com outras muitas DLLs do Windows (aquelas que ficam nas pastas System e System32). Isso seria um problema, porque além do Windows ter de ficar procurando arquivos no meio da bagunça, o disco rígido seria utilizado constantemente, podendo estragar em muito pouco tempo.

quinta-feira, 9 de abril de 2009

Deletados para sempre!

Garanta sua privacidade e livre-se de vez de seus arquivos, sem chance de voltar atrás.

Você quer se desfazer de um arquivo ou pasta de seu computador. Você o coloca na Lixeira e depois o deleta . Mas, você sabia que ele ainda pode ser recuperado? Usando um de vários programas você consegue recuperar um arquivo deletado. Mas e se eu quiser me livrar completamente dele? Neste artigo irá mostrar alguns programas que fazem isso para você.

Esses programas que recuperam arquivos deletados vasculham registros e pistas deixadas pelo programa ao ser deletado. Imagine que tudo que você usa deixa uma marca física no seu HD, pois ele usa uma forma de registro magnético que altera fisicamente o disco. Até mesmo as memórias flash dos pendrives fazem isso. É assim que ele pode ser lido depois. Por mais que você altere o disco, desfragmente ou o formate, vão ainda restar alguns resquícios físicos dos arquivos deletados.

Usando um programa apropriado, como o PC Inspector File Recovery, o Undelete Plus ou o Recuva, você consegue trilhar as marcas deixadas pelos arquivos deletados e recuperá-los quase que completamente. Alguns fatores dificultam isso, como o tamanho do arquivo deletado ou há quanto tempo ele foi apagado. Mas mesmo assim, isso é possível.

E quando eu não quero que esses arquivos possam ser recuperados? Às vezes empresas trabalham com arquivos confidenciais ou você vai emprestar seu pendrive para um amigo e você não quer que ele possa recuperar os arquivos que você guardava lá. Existem alguns programas que você pode usar para evitar isso.

Freeraser da Codyssey

Um dos pontos fortes deste programa é o visual da Lixeira. Ela é completamente personalizável, podendo mudar seu tamanho e transparência. Ela ainda é animada e você a vê trabalhando enquanto ela deleta para sempre seu arquivos confidenciais. V.

Lavasoft File Shredder

Este programa não é tão visualmente bonito quanto o anterior. Porém, ele traz algumas funcionalidades extras bastante interessantes. O Lavasoft File Shreder permite, além de deletar permanentemente arquivos, limpar completamente sua lixeira, eliminar para sempre arquivos de sistema (como arquivos temporários) ou ainda apagar de vez o espaço vazio do seu HD de forma que não haja possibilidade que outra pessoa possa tentar usar algum programa para recuperar os arquivos que você já deletou faz tempo.

Hard Drive Eraser

Este programa não deleta unicamente arquivos: ele formata completamente seu HD, partição ou pendrive. Hard Drive Eraser, diferentemente dos outros, foi feito para você limpar de vez algum HD ou disco de qualquer resquício que tenha ficado de sua última instalação. E tenha certeza que, após utilizar o Hard Drive Eraser, nada que estava no disco apagado poderá ser recuperado. Ele ainda traz diferentes velocidades de formatação, desde o mais rápido para aqueles menos preocupados até o mais lento e eficaz, para os mais paranóicos.



Se arrependimento matasse...

Mas lembre-se que todo arquivo deletado pode ser recuperado. Por outro lado se você o fizer usando algum desses programas, as chances de recuperar algum desses arquivos é praticamente nula. Então só faça isso se você souber que você não vai se arrepender de deletá-los.

Privacidade garantida

É claro que esse tipo de recurso é extremamente válido para empresas e pessoas que trabalham com arquivos confidenciais ou precisam se livrar de quaisquer resquícios de arquivos. Ou ainda, caso você use algum computador compartilhado ou disco removível compartilhado e você realmente não quer que ninguém veja os arquivos que você deletou. É uma das melhores formas de você garantir a sua privacidade.

terça-feira, 7 de abril de 2009

O que é DDR?

Descubra o que significa o termo DDR e as principais versões desta memória

Atualmente, ao comprar qualquer memória existente mercado, além da questão do tamanho (em GB) , todos os pentes exibem a sigla DDR. Alguns exemplos são o DDR-400, DDR2-667, DDR3-1600, entre outros.

Origem do termo DDR

Em primeiro lugar, DDR é a sigla de Double-Data-Rate(taxa dupla de transferência em português), significando que esta tecnologia permite que dois dados sejam transferidos ao mesmo tempo. Antes de entrar no assunto de forma aprofundada, vamos relembrar os conceitos mais básicos sobre memória:

Memória RAM

RAM, sigla de random access memory (memória de acesso aleatório), é o dispositivo responsável por armazenar os dados e valores que estão sendo processados na CPU. O termo “aleatório” de RAM indica que é possível ler ou escrever dados em qualquer endereço de memória, desde que o sistema operacional permita tal operação.

Em uma RAM, existem duas operações básicas: leitura e escrita. Na primeira delas, os programas que estão sendo executados no processador leem dados presentes em um endereço qualquer. A escrita segue o mesmo princípio, permitindo a atribuição de valores no endereço desejado. Cada posição da memória é marcada com um endereço, o que permite o acesso direto ao local desejado. Nas primeiras RAM, a transmissão de dados era assíncrona, ou seja, não existia um relógio que controlava os acessos à memória.

Barramento de comunicação


Os Barramentos de comunicação são responsáveis por transmitir dados entre dispositivos de hardware. Entre os vários barramentos existentes no PC, o mais importante é o Front Side Bus (FSB) , efetuando a comunicação entre a CPU e memória, incluindo outros dispositivos.

Por isso, é muito importante que o FSB seja rápido o suficiente, caso contrário, muito da capacidade do CPU e da memória é desperdiçada na prática. Durante essa matéria, vários casos irão exemplificar como o FSB pode realmente limitar o desempenho do sistema de forma geral.

Entenda as siglas associadas ao modelo DDR

Agora que já sabemos como é o funcionamento básico da memória e do FSB, podemos falar sobre os principais tipos DDR existentes: DDR-SDRAM e DDR-DIMM, assim como de seu precursor SDRAM.

SDRAM

SDRAM, sigla de synchronous dynamic random access memory (memória de acesso dinâmico síncrona), é o método de acesso à memória mais usado na atualidade. Ele realiza leituras e escritas assim como na RAM tradicional, contudo, de forma síncrona e dinâmica.


Na RAM comum, os endereços podiam ser acessados e os dados transferidos à qualquer momento, diferentemente da SDRAM, que possui um clock (relógio) que regula o acesso à memória. Em outras palavras, é necessário esperar um pequeno período de tempo para efetuar uma leitura ou uma escrita.

A latência de uma memória é o período gasto para que um endereço qualquer seja acessado com garantia que os dados não percam seus valores. No caso da RAM normal, que é assíncrona, esse período é variável. Já na SDRAM, o clock do processador determina a latência, que será sempre a mesma.

Durante muito tempo, as memórias SDRAM trabalharam com o padrão de 168 pinos, entretanto, na atualidade, é muito comum encontrar pentes com 184 ou 240 pinos (DDR-SDRAM).

DDR-SDRAM


Agora, chegamos ao momento mais aguardado do artigo: a definição de DDR-SDRAM. Na verdade, não faz sentido falar sobre o termo DDR sozinho, visto que ele é diretamente uma evolução do padrão SDRAM.

Basicamente, uma DDR-SDRAM é uma SDRAM que permite que 2 dados sejam transferidos no mesmo ciclo de clock. Este esquema aproveita tanto a borda de subida como a de descida do clock para efetuar transferências (um dado em cada período). Desta maneira, um pente DDR-SDRAM é teoricamente o dobro mais veloz que um SDRAM comum.

Por esse motivo, memórias DDR trabalham, na teoria, com o dobro da velocidade obtida com a frequência real do computador, fato que será verificado ao decorrer deste artigo. O número de pinos existente em um pente varia com o tipo da DDR (DDR, DDR2 ou DDR3).

DDR-DIMM


Primeiramente, DIMM, sigla de Dual in-line Memory, é um termo usado para identificar pentes de memória que possuem circuitos distintos em ambos os lados. O padrão anterior, SIMM, armazenava cópias idênticas dos dados nas duas faces da memória, cujos circuitos eram idênticos. Desta maneira, as memórias DIMM trabalham com 64 bits de dados, ao contrário de seus antecessores, que operavam com 32 bits.

A grande parte das memórias atuais trabalham no padrão DIMM, inclusive a própria SDRAM. Por esse motivo, o termo DDR-DIMM se refere ao próprio DDR-SDRAM. Também é muito comum chamar este tipo de memória de DRR-SDRAM DIMM.

Principais padrões DDR existentes

Após as definições sobre DDR apresentadas acima, já estamos aptos a conversar sobre cada tipo de memória em si. Como é de conhecimento de todos, o padrão DDR evoluiu durante os últimos anos, avançando para o DDR2 e, posteriormente, para o DDR3. Então, vamos conversar sobre as principais características de cada um dos tipos existentes.

DDR1

Antes de mais nada, os processadores trabalham com duas medidas de processamento: o clock interno e externo. A primeira delas se refere a frequência máxima que a CPU consegue trabalhar, enquanto que a segunda é a velocidade de transferência dos dados para o barramento principal da máquina, o chamado “Front Side Bus” (FSB) . Normalmente, o clock interno é muito maior que o externo.

Durante vários anos, até o final da década de 90, as memórias SDRAM trabalhavam com uma frequência de 133 MHz (as chamadas PC133). Por outro lado, somente com o Pentium 3 o clock externo de 133 MHz foi atingido, visto que as CPUs anteriores trabalhavam com um FSB menor. Consequentemente, esta questão não foi preocupação durante um bom tempo.

Entretanto, quando o Pentium 4 foi lançado com um FSB 400 MHz, a SDRAM evoluiu um pouco e passou a trabalhar com a frequência de 200 MHz Contudo, apesar de ter aumentado, a SDRAM só explorava metade do valor oferecido pelo barramento. Uma solução natural seria então desenvolver um mecanismo que dobrasse a frequência de alguma maneira. Consequentemente, foi exatamente isso que aconteceu, com a advento da DDR.

Com a DDR(DDR1) , foi possível transferir 2 dados ao invés de um, assim, na teoria, dobrando a frequência de 200 para 400Mhz. A tabela abaixo mostra os principais valores de memórias DDR1 vendidas no mercado:





Como pode ser observado na tabela, existe uma medida chamada de “Taxa de Transferência”, bastante usada para contabilizar a velocidade de um modelo específico. Ela é obtida pela seguinte fórmula:

Taxa de Transferência = [clock da memória] × [número de bytes transferidos] x 2 ( número de dados por vez)

Como a DDR trabalha com 64 bits por segundo ,ou seja, 8 bytes, a fórmula assume os seguintes valores:

Taxa de Transferência = clock x 2 x 8 = 16 x clock

No caso da DDR-200, temos:

Taxa de Transferência = 16 x 100 = 1600, que originou o nome PC-1600.

Em alguns casos, a Taxa pode não ser exata, visto que algumas aproximações podem ser efetuadas, como de 2128 MHz para 2100 MHz, no caso da DDR-266. Sobre a especificação física, os pentes DDR-1possuem o total de 184 pinos.

DDR2

Como os processadores continuaram evoluindo, a frequência do clock externo também aumentou na mesma proporção. Por exemplo, alguns modelos do próprio Pentium 4 chegaram a utilizar o FSB de 800 MHz, o que exigiu outra avanço por parte das memórias. Por esse motivo, a tecnologia DDR2 foi desenvolvida, sendo lançada oficialmente no ano de 2003.

Um pente de memória DDR2 transmite 4 dados por ciclo de clock, o que permite, na teoria, a velocidade de transmissão dobre, comparando com a DDR1. Nesta versão, a frequência do barramento vale o dobro do clock da memória, possibilitando que dois dados sejam transmitidos na borda de subida e outros dois na borda de descida. Nas memórias DDR versão 1, ambas frequências eram as mesmas.

As DDR2 trouxeram grandes melhorias no gerenciamento de energia, pois nas DDR clássicas a Terminação Resistiva (ODT) ficava na placa mãe, o que causava interferências eletromagnéticas, incluindo ruídos e consumo elevado de energia. No modelo DDR2, o ODT está presente no próprio chip de memória, o que reduz bastante os problemas apresentados acima. Este modelo trabalha com 240 pinos.

Apesar de na teoria dobrar a velocidade, a DDR2 apresenta alguns problemas de latência, chegando a atingir quase o dobro da DDR clássica. Aproximadamente, a latência na leitura de uma DDR1 é de 2 ou 3 ciclos. Já na DDR2, o valor sobre para 4 entre 6, o que diminui um pouco a sua vantagem em relação a DDR1.




* Alguns fabricantes conseguiram desenvolver memórias DDR2 que trabalhavam um pouquinho mais rápido que o padrão, por isso também existem os modelos chamados de PC2-4300, PC2-5400,etc.

DDR3

Como nada estaciona no mundo da informática, o FSB dos novos processadores continuaram aumentando, tornando insuficiente a velocidade obtida pelos modelos DDR2. Por isso, pouco tempo atrás, o padrão DDR3 foi lançado, tornando-se cada vez mais presentes nas novas placa mães.

O avanço mais perceptível é o fato da capacidade de comunicação ter atingido oito vez o valor do clock da memória, através da transmissão de 8 dados por um pulso de clock. Mais uma vez, a latência aumentou, portanto, o ganho real não chega a ser o dobro comparado com a DDR2.

Caso você for montar uma máquina potente top de linha, o uso de memórias DDR3 são indispensáveis, visando atingir o máximo de desempenho possível. Além disso, já existem pentes deste modelo com capacidades de 8 GB. A tabela abaixo mostra os modelos DDR3 que já estão sendo comercializados no mercado.



Memórias DDR4 já estão em desenvolvimento e fase de testes, tendo previsão de lançamento para o ano de 2012.

Dual Channel

Finalizando esta matéria, vamos falar sobre o famoso recurso Dual Channel, que permite um ótimo ganho de desempenho no uso de memórias DDR. Este mecanismo dobra a largura do barramento, permitindo que 128 bits sejam transmitidos ao invés de 64 bits. Para isso, existe a necessidade da instalação de dois pentes idênticos, sendo que um deles armazena os primeiros 64 bits e o outro os 64 bits restantes. Assim, na teoria, é possível transmitir o dobro de informação ao mesmo tempo.

Este mecanismo já existia, de forma primitiva, na época da primeira versão da DDR, contudo, quase não foi implementado nas placa mães. Foi só na DDR2 que o Dual Channel virou praticamente um padrão, visto que agora as motherboards já ofereciam suporte. Todas as DDR3 estão sendo projetadas para funcionar com este recurso.

Apesar de Dual Channel trazer vantagens, seu uso não é obrigatório. Portanto, você pode instalar somente um pente de memória DDR, mas não irá obter o mesmo resultado.

domingo, 5 de abril de 2009

A World Wide Web completa 20 anos, conheça como ela surgiu

O mundo virtual já bem diferente do que conhecemos, saiba como o meio mais democrático se desenvolveu!





Você provavelmente já ouviu falar naquela história de que a Internet nasceu nos Estados Unidos durante a década de 1960, em meio à Guerra Fria. Não? Pois bem, acomode-se na cadeira e fique atento para descobrir como nós conseguimos chegar até a sua casa através desta coisa chamada Internet. Quando o meio mais democrático da atualidade surgiu sequer se chamava Internet. Seu primeiro nome foi ARPANET.


Com as constantes ameaças de uma nova guerra mundial que teria início com os Estados Unidos e a extinta União Soviética (atualmente Rússia e países do Leste Europeu), vários estudiosos de universidades norte-americanas precisavam garantir que as informações do país estariam a salvo caso um ataque realmente acontecesse. Já nesta época os governos tinham plena consciência de que as tecnologias e os meios de comunicação seriam a chave para a dominação do cenário econômico e político em um futuro não muito distante.






Por isso, a ARPA (Advanced Research Projects Agency – Agência de Projetos de Pesquisa Avançados), órgão responsável pelo desenvolvimento de projetos especiais, criou a ARPANET (a palavra “net” em inglês significa “rede”). Se dividirmos o nome deste invento teremos algo parecido com “Rede da Agência de Projetos de Pesquisa Avançados”. Esta rede ligava, inicialmente, computadores com informações sigilosas do governo estadunidense para prevenir a perda destas informações caso houvesse um ataque russo.

Contudo, os ânimos esfriaram de vez e as ameaças antes calorosas se tornaram naquilo que hoje os livros de história chamam de Guerra Fria. Assim, na década de 1970, o governo americano permitiu que cientistas de universidades pudessem estudar este sistema ainda novo com a condição de que pudessem contribuir para a tecnologia de defesa de dados. Cada vez mais as universidades demonstravam interesse em desenvolver projetos para esta novidade e o pequeno projeto restrito do governo acabou adquirindo proporções maiores do que o imaginado inicialmente.







Por esta razão, decidiu-se quebrar a ARPANET em dois pedaços: a MILNET – que trabalhava apenas com unidades militares; e a ARPANET como os cientistas e pesquisadores de universidades continuavam a desenvolvê-la. Você deve estar se perguntando como estas informações iam de um computador para outro. Ora, basicamente, do mesmo jeito que ela vem e vai atualmente. Via IP ou Protocolo de Internet. Este protocolo é um número que funciona como um endereço. Era preciso apontar para onde disparar a informação e esperar que ela chegasse. A Internet não nasceu com 3 megabytes de velocidade.





Como você já pode imaginar, o braço livre dos primórdios da Internet, a ARPANET (depois da divisão) caminhou livre a partir dos esforços de cientistas, pesquisadores, alunos, amigos de alunos e qualquer um que se apaixonasse pela nova tecnologia. Entretanto, ao final da década de 1980, mais especificamente no ano de 1989, Tim Berners-Lee, cientista do Conseil Européen pour La Recherche Nucléaire (em português, Conselho Europeu de Pesquisas Nucleares), cria uma nova forma de ver a ARPANET que acabou revolucionando completamente este meio.




A invenção de Berners-Lee nada mais foi do que o WWW, ou seja, World Wide Web. Este sistema nasceu para ligar as universidades entre si para que os trabalhos e pesquisas acadêmicos fossem utilizados mutuamente em um ambiente de contribuição dos lados envolvidos. Este cientista também é responsável pelo desenvolvimento de duas ferramentas indispensáveis para a Internet: o código HTML e o protocolo HTTP.

Com as invenções de Berners-Lee e várias evoluções e melhorias nestes protocolos e códigos chegamos à Internet como a conhecemos. Nenhum outro meio de comunicação se expandiu tão rapidamente quanto a rede mundial de computadores. Em quatro anos, a Internet atingiu mais de 50 milhões de pessoas! Atualmente, no Brasil, os usuários da rede representam 44% da população com acesso a computadores e 97% das empresas estão ligadas à Internet.


Mas, para entendermos melhor como a Internet no Brasil se desenvolveu, precisamos voltar um ano antes de Tim Berners-Lee desenvolver a World Wide Web. Em 1988, algumas universidades brasileiras começaram a fazer parte da rede de computadores das instituições de ensino superior dos Estados Unidos (a ARPANET). Mas, ainda nesta data, surgia a AlterNex, primeiro esboço do que seria a internet brasileira a partir dos anos 90. Assim como a ARPANET, a AlterNex começou como uma rede restrita para pesquisadores e acadêmicos de universidades. Mais tarde, em 1992 o público pode conhecer a rede mundial de computadores.

Anos mais tarde, em 1997, os provedores comerciais de Internet passam a ganhar mercado no Brasil e o número de usuários começa a aumentar bastante. Contudo, estes primeiros usuários da Internet doméstica eram pessoas que já tinham algum contato com o computador pessoal e dispunham de recursos financeiros para conseguir pagar um provedor mais a fatura de telefone – o que não era nada barato para a época. Com o passar dos anos, os provedores puderam abaixar o preço e com a chegada da conexão Banda Larga.


A guerra de navegadores





Em 1993, Marc Andreessen e Rob McCool inventaram o primeiro navegador livre e gráfico, o Mosaic. Por dois anos, o navegador Mosaic foi o principal meio de explorar a Internet fora das universidades e centros de pesquisa. O objetivo da dupla McCool e Andreessen era transformar a Internet em algo prático também para as outras pessoas. Por isso, em 1995 nasce o Netscape, primeiro navegador comercial da Internet. Alguns usuários com mais tempo de experiência na Internet devem se lembrar da interface deste programa.




Porém, logo a Microsoft percebeu que seria deixada para trás se não desenvolvesse uma tecnologia para ganhar mercado. Foi então que o Internet Explorer foi desenvolvido a partir do código do Mosaic. Um golpe difícil para Andreessen se recuperar, porque a partir daí o IE (como o navegador da Microsoft ficou conhecido) passou a ser incluído no Windows. Como o sistema operacional passou a ser quase um consenso entre os usuários de PCs, o novo navegador também passou a sê-lo. Assim, o Netscape de Andreessen foi deixado para trás para que o Internet Explorer assumisse a liderança de mercado.






Depois de anos utilizando o Internet Explorer, surge o Mozilla Firefox. O ano de lançamento do novo navegador, 2004, pode ser chamado de o ano da “Segunda Guerra dos Navegadores”. Afinal, nos seus primeiros 99 dias de vida, o Firefox teve 25 milhões de downloads. A partir dele, uma vasta coleção de nomes de navegadores surgiu, uma vez que o código de programação do navegador é livre para ser desenvolvido por outros programadores. Assim, todos conseguem um navegador “dos sonhos” altamente customizável e que traz algo novo: as abas de navegação. Depois do Ópera e do Firefox surgem navegadores novos como o Safari (versão Windows) e Chrome – todos eles com as abas, recurso que o IE foi obrigado a incorporar.


A velocidade de navegação e exigência de dinamismo do usuário do início do ano 2000 fez com que novas tendências surgissem na Internet. O meio ficou mais populoso e as pessoas sentiam vontade de se relacionarem entre si – faltava interação entre usuários que não se conheciam pessoalmente. Por isso, a Internet vem mudando constantemente e novas tendências são muito mais do que simples ideias – são fatos consumados.


Sua vida está online

De um tempo para cá, a grande tendência da rede é a aumentar a comunicação e o relacionamento com outras pessoas que compõem este ambiente virtual. Na Grécia antiga existia um espaço público chamado “ágora” em que as pessoas costumavam se encontrar para discutirem temas comuns às suas vidas. Pode-se associar o conceito de ágora ao que vem sendo chamado de Web 2.0. A base desta nova geração da internet é estar conectado a algo ou alguém – não interessa se é de um país distante ou se é o seu vizinho.


Mas aí surge uma outra pergunta: o que é a Web 2.0? O termo foi criado em 2004 pela O’Reilly Media, uma empresa de comunicação americana, para designar uma nova era nas comunicações interpessoais na Internet. Os novos tipos de comunicação e relacionamento que estavam se desenvolvendo na rede partiam do ponto em que vários usuários começaram a gerar conteúdos de maneira independente através de sites, blogs, wikis e redes sociais como o Orkut e universos virtuais compreendidos em jogos.

Com isso, a Internet deixou de ser um ambiente em que a informação já vinha pronta de um determinado lugar como um portal de jornais e revistas, para ser um meio de divulgação livre de conteúdos. As tecnologias de blogging e micro-blogging contribuíram muito para estes avanços uma vez que o usuário já não precisa compreender a estrutura de como aquele serviço foi desenvolvido – ele apenas o usa. Um exemplo fortíssimo de serviço de micro-blogging é o Twitter.

Esta ferramenta tem facilitado muito as comunicações entre pessoas conhecidas e as que você ainda vai conhecer. Caso você ainda não tenha twittado nada, aqui vai um resumo do que é este universo: você vê uma caixa de texto que permite escrever uma mensagem de 140 caracteres. Sinta-se livre para escrever o que quiser, mas não esqueça da pergunta norteadora da ferramenta – What are you doing? (O que você está fazendo?). Na maioria das vezes você não ver pessoas contando o que estão fazendo literalmente; e sim um apanhado de informações quaisquer que o dono daquele perfil resolveu compartilhar.









Compartilhamento. Esta pode ser uma das palavras chave mais importantes quando falamos de Web 2.0. Tudo o que se faz na Internet é compartilhado com outras pessoas. O seu perfil do Orkut pode ser visto por milhões de outros usuários em qualquer país. Seus vídeos no YouTube está lá para quem quiser ver e passar o link a diante. As suas playlists do Last.fm estão online e prontas para serem divididas com seus amigos reais e virtuais. Portanto, afirmar que a sua vida está online não é nenhum exagero. Afinal de contas, quem possui uma conta em qualquer rede social já coloca uma parte de si na Internet através de fotos, músicas, ideias e várias outras formas de expressão.

Existem casos em que a informação é conectada a diferentes fontes de maneira que uma ligação complete a outra e assim, o usuário pode ter uma compreensão maior do que está sendo tratado naquela notícia ou post, no caso de blogs e portais de notícias na Internet. Esta junção de informações é chamada de mash-up, ou seja, integrar tudo o que for relacionado àquele tema para que se possa ter uma noção completa do que se quer dizer.

O futuro está na Internet

Também não é exagero afirmar que o futuro dos computadores está na Internet. Tudo caminha para o que se chama de “Cloud Computing” ou “Computação nas Nuvens”. Isto quer dizer que tudo o que armazenamos em discos rígidos, pen drives e outras mídias de armazenamento estará estocado na grande “nuvem” que é a Internet. Portanto, não será nada incomum confiarmos ainda mais nossas vidas à rede. Atualmente já é possível fazer quase tudo pela Internet, desde pagar contas até conhecer gente nova. Mas o futuro da Internet é muito maior do que isso tudo.

Ninguém melhor do que o pai da aniversariante World Wide Web para criar um instituto, a WWW Foundation, que cuidará do futuro da sua criação que completa vinte anos em 2009. Tim Berners-Lee anunciou em uma conferência no ano passado que boa parte do desenvolvimento do futuro da web está em democratizar o que já existe, ou seja, dar condições de trazer os 80% da população mundial que ainda que se encontra entre os “excluídos digitais”. Além disso, Berners-Lee prevê que haverá a Web ainda vai evoluir para a sua geração 3.0 antes de tornar-se a Web Semântica que o seu criador previa desde o início.




Enquanto a Web 2.0, momento o qual vivenciamos, se propõe a expandir conteúdos com a participação direta de usuários, a Web 3.0 traz a inovação no que tange a manipulação destes dados. É fácil entender este conceito comparando as duas gerações. A 2.0 possui os arquivos, porém eles estão armazenados em bancos de dados. O grande objetivo da geração 3.0 é fazer com que estes dados possam ser manipulados na própria Web. Isto já pode ser visto em casos bastante ilustrativos como o Google Docs, por exemplo.

Para atingir o patamar da Web Semântica, a Internet precisa evoluir tanto tecnicamente quanto seus usuários também precisam passar por uma espécie de evolução. Isto porque a Web Semântica consiste em uma interface só, de modo que uma coisa leve a outra sem precisar retornar às janelas, redigitar comandos, endereços e senhas. Enfim, o futuro da Internet é ser completamente contextual, sem perder tempo com questões que se tornarão triviais, como digitação.

Assim, pode-se entender que a internet vai se tornar um ambiente único extremamente contextualizado. Mas ainda é difícil afirmar categoricamente o que vai ser do futuro da web. Até para os inventores de todas estas ferramentas ainda é difícil prever como elas vão evoluir e quais usos vão atribuir a elas. Mesmo assim, uma coisa é possível afirmar: o futuro das comunicações é o mundo online. Já ficou mais do que comprovado que a Internet aproxima amigos de infância, faz novos amigos, contatos de trabalho e uma infinidade de relações entre seus usuários, resta a eles determinar o futuro do meio em que estão inseridos.