15 maio 2008

Começa a Guerra dos MiniNoteBooks

Até outro dia, laptops minúsculos eram os típicos novos brinquedos tecnológicos, que todo mundo via com fascínio, queria mexer, mas poucas vezes encarava o preço caríssimo. Isso até outro dia. A miniaturização dos notebooks é a nova aposta dos fabricantes, que conseguiram deixá-los mais acessíveis. No Brasil, o mercado foi "oficialmente" inaugurado na semana passada.notebook_capa_460

A Positivo apresentou seu mininotebook e se lançou à concorrência com o também "mini" Eee PC, da taiwanesa Asus. A linha Mobo, nome que a empresa curitibana deu aos pequenos computadores, foi desenvolvida a partir do Classmate PC, um laptop educacional feito para crianças em parceria com a Intel. É, na verdade, a versão adulta do mininotebook.

Os dois modelos têm tela de apenas 7 polegadas (o mesmo tamanho que equipa um aparelho de DVD portátil, por exemplo) e cerca de 1 kg. Cabem facilmente em bolsas e mochilas. Ambos pretendem ser o segundo computador do usuário, já que as configurações (veja as fichas técnicas ao lado) são bem inferiores às de PCs e laptops maiores ou também pequenos mas bem mais caros.

Se perdem em desempenho, ganham em praticidade. A intenção é justamente essa: fisgar pessoas que gostariam de se conectar fora de casa ou digitar textos com rapidez, mas que não se satisfazem com as telas e os teclados pequenos de celulares. O lançamento de novos mininotebooks, portanto, inaugura ainda outra disputa: smartphones versus notebooks. Mas isso é tema para outra reportagem.

E o preço da brincadeira? A Positivo se gaba de vender o primeiro laptop do País a menos de R$ 1 mil (o Mobo sai por R$ 999). Mas, após o lançamento, na quarta-feira passada, já havia lojas na internet vendendo o Eee PC pelos mesmos R$ 999, R$ 100 a menos que o preço de lançamento, R$ 1,1 mil, de outubro do ano passado. Enfim, a briga começou.

Análise

À primeira vista, o Mobo parece o computador ideal para o que se propõe, principalmente por um elemento que o diferencia do Eee PC: o Windows. Ele vem com a versão XP Home instalada, muito familiar para a maioria dos usuários brasileiros. O mininotebook da Asus tem uma adaptação do Linux, a Xandros, que - apesar da boa usabilidade e interface - pode assustar os não-iniciados.

Um dos problemas do Mobo, paradoxalmente, é justamente o Windows. Ele "come" metade do pequeno espaço de armazenamento de dados. Não há disco rígido (HD), mas uma memória flash de só 2 gigabytes (é como se o HD fosse um pen-drive interno). Com o Windows instalado, sobram pouco mais de 900 megabytes para salvar arquivos. Para se ter idéia, é quase a mesma capacidade de um CD comum. Muito pouco.

O problema pode ser solucionado com um disco rígido externo, um pen-drive, cartões de memória (o micro tem entrada para aqueles cartões de câmera digital) ou colocando os arquivos online, como no Google Docs ou serviços de fotos como o Flickr. Só não dá para instalar muitos programas - fator limitador para usuários que buscam mais do que a navegação básica.

Navegar, aliás, é confortável com o Mobo, apesar de tudo parecer achatado (o Eee PC aproveita melhor o formato widescreen da tela). Mas prefira comandar o browser com o teclado ao invés de utilizar o touchpad (aquele quadradinho sensível ao toque que substitui o mouse). Além de muito pequeno, é fraca a sensibilidade da barrinha lateral que faz a tela subir e descer. As setinhas do teclado não falham e é rápido se acostumar com o tamanho diminuto das teclas. Pessoas com mãos grandes podem se arriscar a digitar com uma mão enquanto a outra segura o laptop.

Apesar das configurações simples, o Mobo consegue trabalhar com várias janelas abertas sem lentidão. Já vêm instalados o BrOffice (a alternativa "free" brasileira ao Word e Excel, da Microsoft) e o Adobe Reader, para ler arquivos PDF. Só falhou no teste do Link a exibição de vídeos em tela cheia. Clipes do YouTube, por exemplo, ficaram sobrepostos e ininteligíveis. O problema foi descoberto no protótipo enviado para teste. Esperamos que a Positivo corrija a falha antes de o Mobo chegar às lojas.

Falando em vídeo, uma boa surpresa do mininotebook é a webcam embutida. Ao contrário do Eee PC (veja em http://tinyurl.com/6fpoyy), capta imagens com 1,3 megapixels. Dependendo da conexão, dá para transmitir vídeos pela internet com qualidade e até tirar fotos (mas, claro, é superincômodo usar o micro como câmera).

O mininotebook também se conecta com monitores maiores e mouses USB, caso o usuário queira trabalhar com mais conforto, embora não seja muito útil.

O Mobo deve chegar às lojas em duas semanas. No mesmo período, a Asus planeja lançar a versão melhorada do Eee PC no Brasil, o Eee-900. A tela tem 8,9 polegadas, o desempenho é melhor e a memória interna cresce para 12 ou 20 gigabytes. O preço também crescerá: R$ 1.590.

Nos EUA, a HP também já entrou no mercado dos mininotebooks, com o modelo HP 2133 Mini-Note PC. O micrinho também tem tela de 8,9 polegadas, duas configurações e custa US$ 499 (cerca de R$ 850). A empresa quer trazer o produto para o Brasil ainda neste ano, mas não há data nem preço definidos.

Se você já tem um computador, fica muito fora de casa, detesta digitar no telefone e tem R$ 1 mil disponível, preste atenção na nova fase da mobilidade. Se não tem tudo isso, bem, os mininotebooks não são para você.

fonte: As informações são do O Estado de S. Paulo

Conheça os 15 maiores fracassos tecnológicos de todos os tempos

Todos pensavam que esses produtos iriam revolucionar a tecnologia. Mas nem chegaram a existir - e pode-se até agradecer por isso.

Toda indústria tem sua cota de idéias que não deram certo, e o ramo da tecnologia já excedeu a sua há tempos. Alguns se encaixam na definição clássica de vaporware, o que quer dizer que foram marcados por muito entusiasmo e pouca substância. Outros estavam apenas à frente de seu tempo. E outros foram meras vítimas de palpites ruins sobre o que o usuário realmente queria.

Aqui estão os 15 melhores exemplos de produtos que nunca viram a luz do dia (pelo menos da forma que foi planejada), além de algumas menções honrosas que não poderiam ficar de fora.

15. Ovation

Os anos 80 foram uma época interessante para o desenvolvimento de aplicativos de escritório para MS-DOS. WordStar, WordPerfect, Microsoft Word e Lotus 1-2-3 são bons exemplos. Três anos depois do lançamento do IBM-PC, eles já eram obrigatórios.

Eis que, em 1983, uma estreante chamada Ovation Technologies anunciou a criação de um pacote integrado que prometia tudo: edição de texto, planilha, banco de dados e comunicação de dados. Um ano depois, a empresa pediu falência: cerca de 7 milhões de dólares foram torrados sem que um único produto fosse lançado.

Aparentemente, o único resultado duradouro da Ovation foi ter inspirado a criação do termo “vaporware”.

14. Duke Nukem Forever

É difícil dizer algo novo sobre Duke Nukem Forever, em parte porque as pessoas já tiveram bastante tempo para fazer piadas sobre o assunto. Há pouco mais de 11 anos, a 3D Realms fazia seu primeiro anúncio oficial sobre o game, que deveria ter chegado às lojas em 1998.

A previsão veio antes que a empresa decidisse trocar o software básico do jogo – algo que se repetiria ao longo do tempo, obrigando a empresa muitas vezes a reprogramar tudo do zero.

Nesses dez anos, o desenvolvedor liberou alguns trailers (o último foi em dezembro), telas capturadas e demos. Embora a 3D Realms tenha se recusado a divulgar datas precisas de lançamento, seu presidente, Scott Miller, confirmou a um jornal americano que o game sairá ainda em 2008.

E, à medida que o tempo passa, cada fato novo dessa história dá origem a mais comentários irônicos e maliciosos. Um dos melhores é o The Duke Nukem Forever List, que enumera as mudanças que a indústria de games e o mundo sofreram desde a primeira vez que o game foi prometido, em 1997.

Se um dia o Duke Nukem Forever chegar a ver a luz do dia – o que deverá surpreender mais seus criadores do que o consumidor comum –, seu papel de fonte de piadas do mundo tecnológico poderá ser preenchido pelo Darkfall, um game online no estilo RPG que, sete anos depois, permanece em desenvolvimento.

13. Amiga Walker PC

15_vaporware_300Nenhuma lista de invenções hi-tech que quase chegaram lá estaria completa sem algum item da linha Commodore Amiga – fruto de uma empresa onde máquinas notáveis eram freqüentemente sabotadas por estratégias de marketing questionáveis, circunstâncias ruins, ou uma mistura dos dois.

Depois que a americana Commodore foi à falência em 1994, a tecnologia e a marca Amiga foram arrematadas pela alemã Escom Technologies. No começo de 1996, a tal companhia manifestou a intenção de vender uma versão atualizada do micro Amiga 1200 na forma de um inusitado gabinete azul púrpura que se equilibrava sobre quatro pezinhos finos – daí o nome Walker.

Idéia genial ou loucura? Nem a Escom parecia saber ao certo, já que ela também pretendia vender a placa-mãe em separado, para que as pessoas pudessem montá-la em um gabinete comum de PC. A reação dos fãs foi controversa; alguns diziam que o gabinete lembrava um besouro.

Nunca saberemos se o Walker teria, enfim, conquistado os fãs do Amiga. Só um punhado de protótipos foram construídos antes que a Escom fosse à falência em 1997.

12. Sega VR

145351-SegaVRAntes que a febre das empresas pontocom tomasse o mundo, o tema mais quente nas rodinhas de tecnologia era a realidade virtual. Ao mesmo tempo em que víamos filmes como O Passageiro do Futuro e cafés VR despontavam nas cidades mais modernas, uma batalha estava em curso entre dois gigantes da indústria de videogames, com a intenção de levar as maravilhas da realidade virtual às casas das pessoas.

A Sega decidiu criar o Sega VR como um acessório de realidade virtual para o popular console Genesis. Seus óculos com fone deixavam o jogador parecido com o carro do seriado Supermáquina; no entanto, era um dos mais belos acessórios de VR daqueles dias. E, na opinião geral, o design era o que o produto tinha de melhor.

Apesar das especificações ambiciosas, como o display colorido com resolução de 320 x 200 pixels, as poucas pessoas que experimentaram o sistema e que não eram da Sega – a maioria em eventos públicos – não chegaram a ficar impressionadas.

Embora o Sega VR tivesse honrado as especificações técnicas prometidas, na prática as imagens eram confusas e embaçadas. A companhia cancelou o projeto em 1994, mas não sem antes oferecer o Sega VR como prêmio em caixas de cereais. O que o ganhador realmente levou para casa é um mistério.

A Sega deve ter respirado aliviada quando, um ano depois, o Virtual Boy da Nintendo teve o mesmo fim. (Veja o comercial original do Virtual Boy.)

11. Glaze3D Graphics Cards

145351-Glaze3DOs fabricantes de placas gráficas sempre brincaram de gato e rato no que diz respeito a velocidade de processamento. À medida que os componentes ficavam mais baratos, as empresas se empenhavam em extrair resoluções e taxas de atualização de quadros cada vez maiores.

Em 1999, a empresa finlandesa Bitboys Oy anunciou duas placas gráficas baseadas na arquitetura Glaze3D. Para os padrões da época, até mesmo a mais simples delas era espetacular: ao que parecia, o gato da brincadeira havia se tornado um tigre.

O segredo (aliás, nem tão secreto assim) da família Glaze3D era o uso de memória DRAM embutida, o que permitia driblar as limitações de velocidade no uso de memórias externas.

Os índices de desempenho divulgados eram de entusiasmar qualquer fã de games. No entanto, a reação geral foi de otimismo cauteloso. Muitas pessoas decidiram apostar na atitude do “só acredito vendo”.

Mesmo assim, o pessoal da Bitboys contou com o benefício da dúvida, já que a empresa tinha construído uma reputação com seu trabalho em arquitetura de placas gráficas, e havia uma parceria com a Infineon para a produção dos chips. Será que essa técnica tão diferente inventada pela Bitboys realmente funcionaria?

Nunca saberemos. Por dois anos, a empresa deixou de cumprir datas de lançamento. Claro que durante esse tempo o resto da indústria correu atrás de melhores tecnologias. Quando novas versões do DirectX chegavam ao mercado, a Bitboys dizia que suas placas seriam compatíveis. As especificações técnicas das placas também eram atualizadas, ganhando com o tempo um terceiro modelo, ainda mais potente.

Mas o jogo acabou de vez quando a Infineon parou de fabricar DRAM embutida em 2001. Sem um fabricante, a Bitboys jogou a toalha e se concentrou em projetos de processadores gráficos, sendo comprada pela ATI em 2006.

10. Atari 2700

Um dia alguém da Atari teve uma idéia brilhante: pegue o mundialmente famoso console Atari 2600, faça um novo gabinete, junte novos controles e rebatize como Atari 2700.

Era praticamente como imprimir dinheiro. Os designers da empresa abandonaram o design setentão do Atari original, com apliques plásticos imitando madeira, e investiram tudo num toque futurista (para a época), com acabamento em marrom e preto brilhante, e com espaço interno para guardar os controles.

E os controles eram mesmo inovadores, trazendo os botões Select e Reset (dando ainda menos motivos para levantar do sofá), um botão Fire sensível ao toque, e um joystick que também funcionava como paddle e podia ser rotacionado a 270 graus. Além, claro, do apelo definitivo: controles sem fio.

A publicidade e a embalagem chegaram a ser criadas, mas o Atari 2700 nunca chegou às lojas. No controle de qualidade, os testadores notaram que os controles tinham um alcance de cerca de 300 metros. Como os controles não tinham outros identificadores além de “esquerdo” e “direito”, qualquer um que jogasse poderia afetar outros consoles Atari 2700 no mesmo raio.

Para complicar ainda mais, a eletrônica era derivada de portas automáticas de garagem, e a interferência dos controles remotos dessas portas era uma possibilidade. A Atari concluiu que reprojetar o console e os controles seria muito caro e simplesmente riscou o projeto do mapa.

O 2700 sumiu, mas deixou rastros. O projeto do gabinete foi reutilizado, com algumas adaptações, para o Atari 5200, e os controles do 5200 usavam elementos do projeto do 2700. E a funcionalidade wireless seria utilizada em um acessório para o Atari 2600 - uma enorme e inutilizável versão do clássico joystick para o 2600.

9. Secure Digital Music Initiative

Lá pelo fim da década de 90, a combinação do formato MP3 com o Napster – sim, o temível Napster – deixou a indústria da música de cabelo em pé. Tanto que a RIAA, a associação que reúne as grandes gravadoras norte-americanas, processou a Diamond Multimedia por causa do tocador de MP3 Rio. Enquanto isso, um consórcio de empresas de eletrônica, entretenimento e informática uniram forças e criaram a Secure Digital Music Initiative (SDMI).

O objetivo era criar um novo formato de música digital, com marcas d’água que garantiriam o respeito aos direitos autorais e de distribuição. Quando se tornasse padrão, os tocadores de música não poderiam tocar áudio SDMI que não tivessem sido licenciados pelo dono do aparelho.

No fim de 2000, o consórcio ofereceu um prêmio de 10 mil dólares a qualquer pessoa ou grupo que conseguisse remover as marcas d’água de quatro músicas pré-selecionadas, dentro de um prazo de três semanas.

Uma equipe de Princeton, liderada pelo professor de ciência da computação Ed Felten, topou o desafio – e venceu. A SDMI ameaçou processar Felten quando descobriu que ele pretendia apresentar detalhes de seu trabalho em uma conferência acadêmica no ano seguinte.

A Electronic Frontier Foundation, em apoio a Felten, processou a RIAA, a SDMI, a Verance (uma das empresas responsáveis pela tecnologia de marca d’água) e o Departamento de Justiça dos EUA, com base na Primeira Emenda da Constituição americana.

Felten apresentou seu trabalho em um simpósio alguns meses depois. Naquele momento, a SDMI já tinha perdido boa parte de seu brilho, e se dissolveria logo depois.

8. Action GameMaster

A Active Enterprises era o tipo de empresa que preferia quantidade a qualidade. Era dela alguns dos cartuchos para NES e Sega Genesis com 52 jogos, alguns de qualidade bastante duvidosa.

O Action GameMaster, anunciado pela Active em 1994, não fugia a essa regra. O console portátil não somente teria seus próprios cartuchos, como aceitaria jogos de NES, Super NES e Sega Genesis (mediante adaptadores), bem como jogos em CD-ROM (via outro adaptador).

Para completar a receita de tudo-em-um, havia um sintonizador de TV e adaptadores para carro e tomada. (Mesmo com tudo isso, a Active garantia que o GameMaster seria leve.)

Apesar do anúncio entusiástico à imprensa durante o Consumer Electronics Show de 1994, o Action GameMaster nunca se materializou. Não surpreendeu, já que ninguém acreditava que eles seriam capazes de licenciar o hardware necessário da Nintendo ou da Sega. E mesmo o conceito de portátil revelado pela Active se mostrou bastante distinto do resto do mundo dos games: se levarmos a sério a afirmação da empresa de que o Action teria uma tela LCD de 3,2 polegadas, podemos inferir pelo design que o aparelho teria pelo menos 25 cm de largura por 8 cm de largura.

A empresa, que dizia contar com uma enxurrada de pedidos que nunca vieram, desapareceu pouco tempo depois.

7. Infinium Phantom

Phantom3_bEste é um daqueles casos em que o nome (fantasma, em inglês) combina perfeitamente com o produto. Desde o primeiro momento do anúncio, em janeiro de 2003, do Phantom – um console que iria “deixar Xbox, Sony PlayStation 2 e GameCube para trás” -, a Infinium enfrentou ceticismo.

O anúncio estava repleto de especificações técnicas impressionantes, apesar de não entrar em detalhes sobre o aparelho em si. Mesmo assim, prometia uma demonstração pública em março e lançamento em novembro.

Os detalhes não demoraram a aparecer. O Phantom era essencialmente um PC com Windows XP embutido, que permitiria jogar games para PC; seu alvo principal, no entanto, era o sistema on-demand, por meio do qual assinantes poderiam baixar o jogo que quisessem por meio de uma conexão internet. Em dado momento, a empresa chegou a pensar em distribuir o console gratuitamente a quem aderisse ao plano de assinatura de dois anos.

Imagine a surpresa quando um Phantom de verdade foi mostrado na feira E3 de 2004. Era um modelo completo, tendo até o LapBoard sem fio – um conjunto de teclado e mouse que se encaixa numa bandeja destacável. Houve até uma nova data de lançamento – que, é claro, chegou sem que nenhum Phanton fosse entregue.

Um outro Phantom foi mostrado na edição 2005 da CES, mas a seqüência de prazos não cumpridos minaria qualquer boa vontade que a aparição pública poderia ter conquistado. Mais tarde, nesse mesmo ano, a Securities and Exchange Comission (SEC) anunciou que promoveria sanções contra o ex-presidente da Infinium, Timothy Roberts.

Os arquivos da SEC revelaram depois que a Infinium perdeu 62,7 milhões de dólares em três anos, gastando apenas 3,5 milhões em desenvolvimento de produtos. Alguns meses depois disso, a Infinium encerrou oficialmente o projeto Phantom, mudando seu nome para Phantom Entertainment, e concentrou esforços no LapBoard – que, apesar de uma encomenda da Alienware, ainda não se materializou.

6. Apple Interactive Television Box

Apple-Interactive-TVHoje podemos assistir a filmes em consoles de videogame, navegar na web pelo celular e ouvir música em quase tudo que usa eletricidade. Mas nem sempre foi assim. A convergência digital estava simplesmente fora do alcance e o máximo com que sonhávamos era a TV interativa, que prometia aos telespectadores visitar o site de uma empresa quando seu comercial ia ao ar, ou participar de enquetes de programas de TV (não, ainda não haviam inventado o BBB).

Em 1993, a Apple uniu-se às européias British Telecom e Belgacom para produzir um set-top box voltado a esse tipo de serviço. O Apple Interactive Television Box era um Macintosh LC-475 de 25 MHz modificado e, modestamente, permitia que os usuários baixassem e assistissem a conteúdos (e avançassem ou retrocedessem a programação, tal como os gravadores TiVo).

Os planos futuros incluíam game shows interativos e contéudo educacional para crianças, bem como acessórios como mouse, teclado e CD-ROM.

Em 1994, famílias selecionadas na Inglaterra e na Bélgica instalaram a caixa preta com a maçã da Apple sobre suas TVs, e os testes começaram um ano depois nos Estados Unidos. E a Apple aprendeu rapidamente que as pessoas simplesmente não estavam interessadas em TV interativa.

Os testes terminaram e a Interactive Television Box voltou para a prateleira. Salto rápido para 2008 (saltando o fracasso de 1996 com o console de game e internet Apple Pippin @World), e eis que surge o charmoso Apple TV media streamer, que permite o aluguel de vídeos em formato padrão e em alta definição, diretamente da sua TV.

5. Palm Foleo

PalmFoleo1_bO fundador da Palm Computing, Jeff Hawkins, é um sujeito de sorte. O que poucas pessoas fizeram – inaugurar uma categoria de produtos -, ele fez duas vezes, a primeira com o original PDA PalmPilot, e depois com o smartphone Treo, da Handspring. (As duas categorias existiam antes das invenções de Hawkins, mas os produtos da Palm os tornaram acessíveis o suficiente para seduzir os não-tecnófilos).

Em 30 de maio de 2007, Hawkins deu um passo ousado ao anunciar o Palm Foleo, um subnotebook de 499 dólares com sistema Linux projetado para sincronizar dados com um smartphone. Dessa forma, os executivos em viagem poderiam, entre outras coisas, editar documentos e enviar e-mails sem depender de tecladinhos apertados.

As especificações invejáveis, como o peso de 1,13 kg e o recurso de instant-on (que elimina o tempo de carga do sistema), não impediram que os entusiastas respondessem com um sonoro “por quê?”. Perdido entre um PDA e um notebook em poder e tamanho, parecia ser apenas mais um aparelho para carregar, com muitos recursos que poderiam ser encontrados nos outros aparelhos.

O próprio editor-chefe da PC WORLD/EUA, Harry McCracken, fez parte da minoria que acreditou que o Foleo sofreu de pré-julgamento, e os testes que vieram a seguir alternavam experiências positivas e negativas. Apenas três meses após o lançamento oficial, a Palm cancelou o produto, tendo como justificativa a necessidade de “desenvolver primeiro a plataforma principal e os smartphones”. McCracken concordou, escrevendo que o “Foleo funcionava como uma distração num momento em que a Palm não podia se distrair”, e que o aparelho teria destino similar ao do LifeDrive.

Algumas pessoas podem argumentar que Hawkins estava certo, diante do surgimento de laptops mais leves como o Asus Eee PC – bons o suficiente para algumas tarefas, mas sem o pacote de recursos oferecidos por um notebook.

4. Taligent e Microsoft Cairo

Taligent_bSteve Jobs, afastado pelo conselho diretor da Apple, deixou a empresa em 1986 e fundou a NeXT Computer. Em 1989, a NeXT lançou seu primeiro computador, diante de grande expectativa. Embora a NeXT tenha sido modestamente bem-sucedida, seus produtos e as tecnologias que eles trouxeram (incluindo o avançado sistema operacional NeXTSTEP) orientaram três empresas em particular: Apple, IBM e Microsoft.

O que a NeXT fez – aparentemente, a partir do nada – foi criar um sistema operacional orientado a objeto. (Entre outras coisas, tal design torna o reaproveitamento de código mais fácil.) A Apple já tinha começado a trabalhar em 1987 em um sistema operacional desse tipo, de codinome Pink, mas sofria com brigas internas que impediam a entrega de qualquer coisa que se parecesse com um produto final.

Em 1992, o projeto Pink foi transferido para a Taligent, uma joint-venture entre Apple e IBM. A IBM, por sua vez, tendo rompido com a Microsoft em relação ao OS/2, já tinha começado a trabalhar em um microkernel chamado WorkspaceOS. A Taligent combinou os esforços em torno do Pink e do WorkplaceOS, com a intenção de lançar um sistema multiplataforma chamado TalOS.

É verdade que o grupo chegou a lançar um ambiente de programação orientado a objeto chamado CommonPoint for OS/2, além de vários sabores de Unix. Mas o sistema operacional nunca apareceu. A empresa foi absorvida pela IBM em 1998.

Em 1991, a Microsoft anunciou o projeto Cairo – sob vários aspectos, uma resposta direta à NeXT. O Cairo prometia um sistema de arquivos orientado a objeto e distribuído (chamado Object File Store, ou OFS), que indexaria a estrutura de arquivos de um computador ou de uma rede de forma automática.

Diversas versões do Windows NT foram lançadas e o Cairo continuava em desenvolvimento, empurrando datas de lançamento cada vez mais para a frente. Até que um dia a Microsoft se referiu ao Cairo como o sucessor do Windows NT Server, e depois como um conjunto de tecnologias. O desenvolvimento do Cairo terminou em 1996.

Pelo menos duas dessas iniciativas resultaram em tecnologias que são utilizadas até hoje. Pedaços do Cairo, somados a convenções herdadas do Mac OS e do NextSTEP, ajudaram a inspirar a interface do Windows 95, e formaram a estrutura básica que sustenta produtos como o Exchange Server, Active Directory e Windows Desktop Search. (A visão OFS foi transmutada para o Windows File System, conhecido como WinFS, que foi prometida para o Longhorn mas foi depois removida da lista de recursos no momento em que se tornou Vista.)

A Apple comprou a NeXT em 1997 e, com isso, trouxe Steve Jobs de volta. E o NeXTSTEP tornou-se a base do Mac OS X.

3. Silicon Film EFS-1

SiliconFilm_bBem no fim do evento Digital Imaging Marketing Association, em fevereiro de 1998, uma companhia chamada Imagek anunciou seu Electronic Film System, o EFS-1, para um pequeno grupo de jornalistas. O EFS-1 tinha tudo para ser o sonho de muitos fotógrafos profissionais: em princípio, o EFS-1 funcionaria como substituto dos cartuchos de filme de 35 mm em qualquer câmera, permitindo o uso dos equipamentos que já possuíam.

Apesar dos enormes desafios de engenharia que teriam de enfrentar , a Imagek esperava ter um protótipo funcional em alguns meses, e um modelo à venda por menos de 1000 dólares algum tempo depois.

Os observadores receberam o anúncio com algum ceticismo, e ninguém se surpreendeu quando a Imagek não honrou as datas prometidas. Ela, no entanto, divulgou algumas especificações, que eram nitidamente modestas: O cartucho de (e)Film tinha um sensor CMOS de 1,3 megapixel e era capaz de armazenar 24 fotos com resolução de 1.280 x 1.024 pontos, sem compressão.

A descarga das fotos era feita diretamente para um PC ou para um cartão CompactFlash. (A essa altura, o pacote completo de hardware e software já era chamado coletivamente de EFS-1.)

Por causa do tamanho do sensor, a imagem capturada teria apenas 35% da área do quadro completo da câmera. E esqueça a universalidade: o EFS-1 funcionava apenas com sete câmeras da Nikon e da Canon.

Fora uma mudança de nome (para Silicon Film), algumas atualizações no site, e algumas imagens como amostra, nada de novo veio da empresa até a edição 2001 da feira PMA, quando a Silicon Film publicamente demonstrou o EFS-1, exatamente três anos depois do anúncio oficial.

Os céticos já estavam menos inclinados a definir o EFS-1 como vaporware, mas a data estimada para lançamento, em junho, passou sem que o produto viesse à tona. Em setembro daquele ano, a Silicon Film suspendeu as operações quando a Irvine Sensors, acionista majoritária da Silicon Film, deixou de financiá-la por enfrentar problemas com os padrões ambientais europeus.

Um anúncio público da Irvine Sensors alegou “circunstâncias de mercado”, o que pode ter sido um modo educado de se referir a preços em queda e qualidade crescente das câmeras digitais, em especial das SLR.

O último suspiro da Silicon Film foi o anúncio da EPS10-SF, que produziria imagens de 10 megapixels com um número maior de câmeras e teria velocidade de 2,5 fps e uma tela LCD. Em seguida, a empresa sumiu.

2. Project Xanadu

Em 1960, Ted Nelson foi o primeiro a inventar o termo “hipertexto”, que ele imaginava ser algo diferente do que realmente veio a significar.

O hipertexto, tal como implementado agora, é unidirecional. Você pode ligar um documento a outro, sem que este último saiba o que ocorreu. Se outra pessoa transfere ou apaga o segundo documento, a ligação é rompida. O hipertexto de Nelson – que ele agora chama de “literatura eletrônica profunda”, para evitar confusão – era para ser bidirecional, de forma que dois documentos ligados permaneceriam ligados, independentemente de mudanças.

Para completar, tal arranjo daria condições para comparação lado a lado, gerenciamento de versões, e um sistema automático de gerenciamento de direitos autorais pelo qual um autor poderia definir um preço de cessão do documento todo ou de parte dele; a ligação daria início à negociação necessária. Em 1967, Nelson deu nome a seu projeto: Xanadu.

O primeiro código funcional do Xanadu foi produzido em 1972. Desde então o projeto tem sido marcado por situações que, por várias vezes, o deixaram à beira da falência. Mas ele continua memorável por diversas razões.

A primeira, claro, é a tenacidade de Nelson. Ele e sua equipe não pararam de trabalhar no Xanadu por quase 50 anos, o que faz deste um dos poucos projetos computacionais existentes que são mais longos que a própria história da computação pessoal e de rede.

O segundo é que, mesmo com o advento e a popularização do hipertexto como nós o conhecemos, especialmente na web, a visão ambiciosa de Nelson não mudou. (Ele diz que a web como está “banaliza nosso modelo original de hipertexto”.) O terceiro é que, mesmo depois de todo esse tempo, com sua inegável influência no modo que nós trabalhamos e jogamos hoje, ele ainda se define como um não-tecnófilo.

É preciso reconhecer que o Projeto Xanadu não é um vaporware completo. Nelson lançou o código fonte do Xanadu em 1999, e o XanaduSpace 1.0 surgiu no ano passado.

1. Apple W.A.L.T. e VideoPad

WALT1_bAntes que houvesse um iPhone – de fato, antes que houvesse um i-qualquer coisa -, a Apple promoveu duas iniciativas em comunicação “portável”. Desenvolvido entre 1991 e 1993 em conjunto com a BellSouth, o W.A.L.T. (Wizzy Active Lifestyle Telephone, de longe o pior nome que a Apple já inventou) era uma prancheta que atuava como PDA; sua melhor aplicação era a habilidade de enviar e receber fax a partir da tela. O W.A.L.T. nunca chegou ao mercado.

Persistente como sempre, a Apple acenou com a possibilidade de um novo conceito de PDA e videofone portátil na MacWord Expo de 1995. Com design similar ao do Newton, o protótipo do VideoPad combinava telefone celular, PDA e videofone, e ainda vinha com um leitor de CD-ROM integrado. A idéia de carregar um telefone com leitor de CD-ROM fez com que o projeto do VideoPad não passasse da fase do protótipo, e também fez com que a Apple ficasse longe dos telefones até 2007. De lá para cá, no entanto, já sabemos bem o que aconteceu.

AppleVideoPhone_b

Menções honrosas

Apple Copland

Enquanto o Pink continuou lentamente a operar sob os projetos da Taligent, o consórcio entre IBM e Apple, a Apple ainda precisava de um sistema operacional que representasse um salto à frente em relação ao System 7.5.

De codinome Copland, este novo sistema operacional deCopland-1_bveria incluir multitarefa preemptiva (o tipo de multitarefa que temos hoje, e que sucedeu a multitarefa cooperativa que as versões antigas do software do Mac oferecia); uma interface colorida com efeitos de sombra (até esse ponto, a interface do Macintosh mantinha traços da origem em preto e branco), e recursos multiusuário.

À medida que o tempo passava, o Copland ganhava mais recursos futuros, como QuickDraw GX, temas, e melhorias na interface com o usuário, enquanto a produtividade da equipe de desenvolvimento era desafiada por um número cada vez maior de exigências e a necessidade de cada vez mais programadores para cumpri-las.

Em 1996, a Apple – ou, para ser mais preciso, o CEO Gil Amelio – referiu-se ao Copland em público como o futuro System 8, e a movimentação esperada em torno de um pré-lançamento – incluindo exibição em eventos, camisetas, e tudo o mais – não tardou a surgir. Mas chegou o dia em que a Apple teve de desistir do Copland, e muitas de suas tecnologias só foram aparecer no Mac OS 8. Para a Apple, seu grande salto à frente se deu alguns anos mais tarde, com o Mac OS X.

Sky Commuter Cars

SkyCommuter_bQue tipo de visão melhor define o futuro? Mutantes à solta, talvez, mas sem dúvida mochilas de propulsão a jato e carros voadores. Embora as pesquisas com mochilas tenham (na maioria) sido suspensas, os engenheiros continuam a nos provocar com vários tipos de carros voadores, remetendo à utopia de estradas sempre livres.

Uma dessas tentativas foi o N2001C – o Sky Commuter, um veículo pessoal de decolagem e aterrissagem vertical (VTOL, na sigla em inglês) projetado pela Flight Innovations. Os detalhes são vagos, mas o resumo é que, depois de mais de 6 milhões de dólares de financiamento, o projeto foi arquivado. Em janeiro, um leilão no eBay que afirmava ofertar o último protótipo existente do Sky Commuter causou alguma excitação (e alguns olhares céticos), mas você pode ver um por si mesmo visitando o Halsons Helicopter Museum, nos EUA.

Bom, não há mais Sky Commuter, mas pelo menos é possível observar outras iniciativas, como o Falx Stalker ou o Transition (um avião leve que dobra suas asas para andar nas estradas).

XtremMac MacThrust G4

145351-XtremMac-MacThrust-G4Em 1999, a companhia sueca Xtrem anunciou que faria o XtremMac MacThrust G4 – um Macintosh turbinado por overclock (raridade entre os Macs) que poderia atingir 1,2 GHz. Havia apenas um problema: o processador PowerPC G4 mais rápido naquele tempo era de meros 500 MHz.

A Xtrem jurou que poderia atingir a marca prometida simplesmente explorando os recursos existentes no hardware da Apple e, é claro, resfriando severamente a CPU.

A Xtrem não cumpriu as datas de lançamento, prometido inicialmente para agosto e depois para janeiro. Em fevereiro a companhia relançou seu site web e reviu suas expectativas: o novo XtremMac alcançaria apenas 1,066 GHz. Enquanto isso, os Macs G4 chegavam a 733 MHz, e os poucos usuários de Mac que ainda não estavam céticos viraram as costas de vez. Se foi mesmo lançado, ninguém notou.

fonte: Emru Townsend, da PC WORLD/EUA -

http://www.pcworld.com.br

Certficação ou Especilização Academica?

A certificação pode determinar quanto o profissional de TI será valorizado, mas não se engane: o diploma universitário é passaporte obrigatório para bons empregos.

Historicamente, a formação de parte significativa dos profissionais de TI sempre beirou a informalidade. O ineditismo de algumas tecnologias e a proliferação de plataformas abertas, com desenvolvimento comunitário, sempre contribuíram para isso.
Por outro lado, na última década pipocaram novas faculdades com cursos para diferentes segmentos, do tradicional processamento de dados até jogos digitais. O MEC reconhece doze diferentes áreas de conhecimento em cursos superiores de tecnologia. Entre 2001 e 2003, 544 novas instituições de curso superior foram autorizadas a funcionar, quase um estabelecimento por dia.
No último senso sobre o assunto, o número de novas faculdades tinha caído de 18,5%, em 2004, para 7,55% em 2005. Ainda assim, sobram vagas em cursos superiores. No meio do caminho entre informalidade e diploma acadêmico estão as certificações técnicas, cada vez mais afinadas com as demandas de mercado e valorizadas pelas empresas. Nesse cenário, em que deve investir o profissional de TI? Qual é o perfil valorizado pelas empresas?

O que o mercado quer?

Experiência, certificação e diploma. Esse é o mantra entoado por executivos de empresas de TI, CIOs e diretores de RH. Mas, atenção, se a graduação aparece em terceiro lugar na lista do que é mais valorizado num processo de seleção, não significa que ela não seja importante.
Pelo contrário. É unanimidade no mercado que hoje o diploma de graduação é tão básico quanto o domínio de inglês. Experiência e certificações são os critérios de desempate. “Hoje, pelo menos 90% da nossa equipe tem curso superior, o que já se tornou padrão. O diferencial é ter uma certificação além do diploma”, diz Marcus Stefanini, presidente e fundador da Stefanini, empresa de serviços de TI e desenvolvimento de programas que emprega cinco mil funcionários no Brasil e em outros quatorze países.
O mesmo raciocínio faz Maria de Fátima Porcaro, diretora do departamento de informática e desenvolvimento da ALESP – Assembléia Legislativa de São Paulo. Por ser um órgão público, o ingresso para a TI acontece por meio de concurso e ter diploma de graduação é obrigatório.
“Se eu precisasse e pudesse escolher, daria preferência a um profissional com certificação”, diz ela. “O principal problema com o qual me deparo aqui na assembléia é que as faculdades não conseguem transmitir a bagagem técnica necessária para o mercado de trabalho”, afirma ela.
A reclamação sobre o fato de os cursos de graduação não estarem estruturados para acompanhar a velocidade que a área de TI exige é recorrente. Mas nem por isso eles são menos importantes, principalmente quando se tratam de multinacionais. Jair Pianucci, diretor de recursos humanos da HP, ressalta um dos pontos que fazem do diploma formal algo indispensável.
“Mais do que a formação técnica, que pode ser adquirida com certificações e treinamentos dentro da própria empresa, o curso superior é importante porque dá para o profissional uma formação extra do ponto de vista de noções de negócios, de economia e mesmo de língua portuguesa. Infelizmente, vivemos em um país em que é comum as pessoas não receberem a bagagem mínima necessária até o ensino médio”, afirma Pianucci.

fonte: Flavia Yuri, dao ComputerWorld - http://computerworld.uol.com.br

14 maio 2008

O que é Banda Larga???

A maioria dos usuarios perguntam; "A final de contas o que banda larga???".

Banda larga é o nome usado para definir qualquer conexão à internet acima da velocidade padrão dos modems analógicos (56 Kbps). Usando linhas analógicas convencionais, a velocidade máxima de conexão é de 56 Kbps. Para obter velocidade acima desta tem-se obrigatoriamente de optar por uma outra maneira de conexão do computador com o provedor. Atualmente existem inúmeras soluções no mercado.

Tecnologias de Banda Larga

ISDN (RDIS)/DSL

Utilizam as redes de telefonia convencionais para transmitir dados em alta velocidade que variam de 64 a 128 Kbps (ISDN). Em Portugal é utilizado o acrónimo RDIS (Rede Digital com Integração de Serviços). Em Portugal até 24 Mbps (ADSL 2+). Bastante difundido no Brasil e Portugal através das grandes empresas de telefonia como Portugal Telecom, Sonaecom, Vodafone Portugal, ONI Telecom, TELE2 e Brasil Telecom (com o Turbo), CTBC (com o Netsuper), Telefônica (com o Speedy), Oi Fixo (com o Velox) e a GVT (com o TurboNet Mega Maxx). Para uma rede de telefonia transmitir dados através destas tecnologias, ela precisa ser 100% digital além das companhias de telefone adaptarem uma aparelhagem que viabilize a conexão. Requer do usuário um modem apropriado. É possível ampliar esta tecnologia desde que as redes sejam substituídas por cabo de fibra óptica.

ADSL

ADSL é um tipo de conexão DSL e, comparada a outras formas desta, o ADSL tem a característica principal de que os dados podem trafegar mais rápido em um sentido do que em outro. Geralmente, os provedores anunciam o ADSL como um serviço onde a velocidade de "download" é mais rápida do que a velocidade usada para "upload". A grande vantagem do ADSL é que o usuário é conectado ponto a ponto com a central telefônica, sem precisar compartilhar sua linha com outros usuários, contrariamente ao modem a cabo. O modem ou roteador ADSL pode ser ligado ao computador via uma placa ethernet, através de uma porta USB ou ainda em modo wireless (sem fio).

Modem a cabo (Cable Modem)

Esta tecnologia, também conhecida por Cable Modem, utiliza as redes de transmissão de TV por cabo convencionais (chamadas de CATV - Community Antenna Television) para transmitir dados em velocidades que variam de 70 Kbps a 150 Mbps, fazendo uso da porção de banda não utilizada pela TV a cabo. Pesquisas americanas mostraram que, entre 2004 e 2005, houve um aumento de 29% no número de usuários de Internet via cabo.

Utiliza uma topologia de rede partilhada, onde todos os utilizadores partilham a mesma largura de banda.

Para este tipo de acesso à internet utiliza-se um cabo coaxial e um modem. O computador do usuário deve estar equipado com placa de rede Ethernet. Nela, conecta-se um cabo par-trançado (UTP). A outra extremidade deste cabo deve ser ligada ao modem. Ao modem, também é conectado o cabo coaxial da TV, que servirá para conectar o usuário à Internet. Outra forma de conexão é através de um conector USB, cujo modem de rede conecta-se ao computador através de um cabo.

Há, atualmente, quatro normas aplicáveis à transmissão de dados via cabo:

  • DOCSIS 1.0/EuroDOCSIS 1.0
  • DOCSIS 1.1/EuroDOCSIS 1.1
  • DOCSIS 2.0/EuroDOCSIS 2.0
  • DOCSIS 3.0/EuroDOCSIS 3.0

Modem Cabo CATV .

Modem Cabo CATV .

A diferença entre DOCSIS/EuroDOCSIS prende-se com a forma como se utiliza o espectro de frequências no cabo, estando a norma EuroDOCSIS mais vocacionada para o mercado europeu. A norma DOCSIS foi no entanto a primeira a ser desenvolvida.

As normas DOCSIS 1.0 e 1.1 são actualmente as mais utilizadas. A norma DOCSIS 2.0 exige alterações importantes nos equipamentos do ISP e como tal está a mostrar mais resistência na sua adaptação. A norma DOCSIS 3.0 exige tambem alterações nos equipamentos dos ISP's e normalmente a troca de modems de clientes, para utilização da mesma.

Mais recentemente foi desenvolvida a norma PacketCable (e a correspondente EuroPacketCable) que define a forma como se pode implementar telefone no cabo. Atualmente no Brasil, a NET Serviços utiliza a tecnologia no seu serviço NetFone, entre outras empresas.

Estão também a ser desenvolvidos novas normas para VideoOnDemand, Televisão Interactiva e Televisão Digital.

No Brasil, as duas maiores companhias de TV a cabo NET e TVA disponibilizam o serviço. Atualmente a maior velocidade disponível no Brasil é de até 8 Mbps, oferecida pela Net Virtua. Requer do usuário um modem apropriado. Em Portugal, todas as companhias de TV por cabo disponibilizam internet por cabo: TVCabo, Cabovisão, Bragatel, TVTEL, Pluricanal. A maior velocidade disponível em Portugal é de 60 Mbps e é oferecida pela TVTEL.

A Norma DOCSIS/EuroDOCSIS 3.0, permitem aumentos consideraveis de até 150mbps na direção de downlink, sendo que tambem é possivel o "bonding" de links, ou seja: A possibilidade de unir varios modems em um mesmo local em varios circuitos em um unico pc ou roteador, fazendo com que todos juntos, tenham uma unica velocidade maior em balancing ou multilink.

Wireless/Rádio

Utiliza ondas de Rádio-freqüência para transmitir os dados. Há duas tecnologias em uso no Brasil, sendo bastante comum confundi-las.

Roteador Wireless.

  • Radio MMDS WLAN - tecnologia que está se espalhando pelo interior do Brasil, devido ao baixo custo de manutenção e boas taxas de preço e velocidade. Consiste em distribuir o sinal da Internet captado por uma linha E1 utilizando antenas e o distribuindo através de POPs
  • Roteador Wireless.

  • (Point of Presence) espalhados pela cidade, formando uma grande rede de usuários. É muito comum haver grupos de assinantes - condomínios por exemplo - que juntos custeam e dividem o custo de todo o equipamento necessário para levar o sinal até suas residências, tornando o preço individual ainda mais baixo. A velocidade de acesso corresponde à contratada pelo assinante com o provedor.
  • Wireless WiFi - tecnologia popularmente conhecida como Wi-Fi, consiste em jogar um sinal de rede numa determinada área para que assinantes com modems e adequados em seus computadores captem o sinal e acessem a Internet sem usar um fio sequer. Todos os laptops fabricados a partir de 2003 já vem preparados para este tipo de acesso, bem como todos os modelos de Macintosh. Os pontos que disponibilizam o sinal são chamados Hotspots - há cerca de 200 deles no Brasil, alguns públicos (Cafés, Aeroportos) e outros privados. A velocidade varia de 256 Kbps até 10 Mbps.
  • WiMAX - esta tecnologia estende o alcance do sinal Wi-Fi a grandes distâncias, podendo cobrir cidades inteiras com uso de repetidores de sinal. Nos Estados Unidos, o Google está cobrindo várias cidades com esta tecnologia. No Brasil o Ministro Hélio Costa disse que esta será a tecnologia como canal de retorno da TV Digital e banda larga gratuita do governo a ser implantada até 2014.

Celular

As redes de telefonia celular 3G permitem o acesso sem fio em alta velocidade à computadores e dispositivos móveis. Chegou ao Brasil em 2007 e vem se expandindo apesar do alto preço por dados trafegado.

A rede 4G promete ser ainda mais veloz e potente com grande cobertura de sinal. Em 2008 está sendo testada no Japão e prevista para estrear no final de 2008. Por ser bancada pelas empresas de telefonia que investem pesadamente no ramo, especialistas dizem que o 4G deve substituir o WiMax rapidamente no ano de 2010.

Satélite

Usada em menor escala por empresas e instituições financeiras, esta tecnologia utiliza satélites de comunicação para transmitir o sinal diretamente aos computadores que os captam através de antenas parabólicas comuns e receptores. A grande vantagem é que pode-se estabelecer conexão em qualquer parte do país, até mesmo em áreas remotas. A velocidade depende do satélite envolvido e do serviço. No Brasil, a Embratel oferece o serviço pela Star One - bidirecional completo - tanto para usuários residenciais como corporativos. Nos anos 90, a DIRECTV tentou emplacar um serviço desse tipo a consumidores residenciais nos EUA, mas não obteve sucesso, principalmente pela banda de transmissão ser unidirecional - era capaz de apenas receber informações, sendo necessário um modem simples para a transmissão.

Energia elétrica

Ainda no campo da pesquisa por mais de oito anos nos EUA, consiste em transmitir os sinais de Internet através da rede elétrica. Nunca foi implantada comercialmente e um dos seus maiores problemas é que quanto maior a distância da casa do usuário aos servidores do provedor, pior fica a recepção e a velocidade. Atualmente vem sendo testada no Brasil nos estados de São Paulo , Paraná , Minas Gerais , Rio de Janeiro e Maceió (pela Eletropaulo , Copel e CEMIG, respectivamente).

O grande problema, na verdade, são os transformadores. O sinal até poderia ser transmitido a longas distâncias, porém os dados se perdem quando chegam aos transformadores. O caso mais próximo do sucesso deu-se na Alemanha, onde os transformadores não ficam nos postes, mas nas próprias residências. Porém, o sucesso não foi absoluto, devido à dificuldade de lidar com a alta tensão encontrada antes dos transformadores.

O PLC (Power Line Communication – ou internet via rede elétrica) começa a dar seus primeiros passos para chegar ao mercado no Brasil. A Copel (Companhia Paranaense de Energia) vai inaugurar um projeto piloto oferecendo conexão à internet pela rede elétrica em banda ultralarga ainda em 2007, com 300 clientes com velocidade de 100 Mbps para cada um. A informação é de Orlando Cesar, consultor de telecom da empresa.

Banda larga no Brasil

Em 2007, a Banda larga no Brasil, embora venha crescendo bastante em número de usuários e velocidade, é quase 400 vezes mais cara que em outros países. Principalmente devido a falta de concorrência, falta de regras claras e alta carga de impostos, além do facto de ainda ser mais lenta que em alguns outros lugares.

Estatísticas

2007, Dezembro = 8.1 milhões de assinantes de banda larga no Brasil. (Segundo o IDC)

fonte: Olhar Digital - http://olhardigital.uol.com.br/ - Wikipedia - http://pt.wikipedia.org/wiki/Banda_larga

Distribuições Linux

Saiba quais são e o que oferecem as versões mais usadas pelos brasileiros

Quando o assunto é Linux, uma das dúvidas mais freqüentes é: “qual distribuição é a melhor?”. Bom, existem distribuições para os mais diversos fins, sendo que um usuário experiente é até capaz de montar sua própria distribuição, adicionando as funcionalidades que desejar. Escolhemos as seis versões mais usadas no Brasil - Fedora, OpenSuse, Mandriva, Kurumin, Débian e Ubúntu, para mostrar a vocês no Olhar Digital.

fonte: Olhar Digital - http://olhardigital.uol.com.br/central_de_videos/video.php?id_conteudo=5468

CGI.BR divulga video sobre riscos de internet

O CGI.BR (Comite Gestor Internet Brasil) disponibilizou este vídeo orientando as pessoas como se prevenir de programas espiões, spam, etc. O vídeo foi muito bem produzido com uma linguagem simples e objetiva. Vale a pena conferir.

Microsoft libera o Service Pack 3 para Windows XP

A Microsoft tornou disponível a versão em português para brasileiros do Service Pack 3 para Windows XP.A primeira versão do SP3 do XP foi liberada em 29 de abril, no idioma inglês. xp3

A versão para brasileiros era esperada para o início de junho, mas foi antecipada e está disponível desde esta quarta-feira (7) no Microsoft Download Center.

O pacote em português já contém correções feitas pela Microsoft no primeiro pacote SP3 revelado pela companhia. Inicialmente, o SP3 causava problemas de compatibilidade entre usuários que rodam o aplicativo Microsoft Dynamics Retail Management System. O problema já foi solucionado.

Segundo Ricardo Wagner, gerente de Windows da Microsoft Brasil, o pacote tornará mais fácil o gerenciamento do XP em conjunto com o Windows Vista em um ambiente corporativo, principalmente em casos de empresas em fase de migração para o novo sistema operacional.

Apesar de disponível no Download Center, o pacote só será enviado via atualização automática do Windows para todos os usuários a partir de junho.

Fonte: Info -http://info.abril.com.br/aberto/infonews/042008/29042008-5.shl

12 maio 2008

Lendas Urbanas

Quem nunca ouviu a história de que figurinhas de chiclete têm LSD? Muito provavelmente você já deve ter visto até cartazes alertando LendasLogo_03 sobre esse perigo. E a história do camarada que foi para o motel com uma garota e acordou em uma banheira cheia de gelo e, quando se deu conta, havia uma cicatriz enorme nas costas, na altura dos rins? Essa história, inclusive, serviu de inspiração para um filme.

Bem, mas o que uma história tem a ver com outra? É que ambas são mentiras e são contadas como se fosse verdade. A história da figurinha com LSD, por exemplo, existe desde a década de 70, por exemplo. Se fosse verdade, todas as fábricas de chicletes já haviam sido fechadas há mais de 25 anos. Esse tipo de boato é chamado lenda urbana e faz parte do folclore daqueles que vivem nos grandes centros urbanos.

Ok, mas onde é que a informática entra nessa história? Desde que o e-mail passou a ser utilizado por milhões de pessoas, essa tornou-se a forma mais comum de divulgação desse tipo de boato. O problema é que, como a maioria das histórias é bem contada, a maioria das pessoas que recebem e-mails com histórias escabrosas acabam passando a história adiante - o mesmo ocorre com as insuportáveis correntes da sorte. Não é preciso dizer que a divulgação da história cresce rapidamente em progressão geométrica, entupindo a caixa postal de milhares de usuários e congestionando a rede.

O grande problema é que raramente as pessoas checam as histórias para ver se elas são verídicas ou trata-se apenas de mais uma lenda urbana e acabam passando a história adiante. Recebemos pelo menos uma história desse tipo por semana e resolvemos checar a veracidade das mais comuns:

Xampu cancerígeno: É uma lenda urbana que diz que a substância LSS (Lauril Sulfato de Sódio) usada em xampus é cancerígena. Essa informação é falsa, até porque a maioria dos xampus usa essa substância. Rumores dizem que essa mentira foi inventada por alguma empresa que fabrica xampus sem essa substância, para aumentar suas vendas (mas, como a própria história, pode não passar de um boato).

Criança com câncer: Essa é outra mentira deslavada, ainda por cima usando o nome de instituições que existem, como o Hospital Albert Einstein e a Sociedade Americana do Câncer. Nessa mensagem, pede-se que a envie para o maior número possível de pessoas, de forma a atender o último desejo da criança que só tem mais seis meses de vida e que o hospital recompensaria em dinheiro pelo ato.

Receita de biscoito: É uma história antiga para burro, existente há mais de 60 anos com várias versões. A história conta que uma pessoa pediu a receita de um biscoito de chocolate que havia comido no hotel Wladorf Astoria de Nova Iorque e que acabou sendo cobrado US$ 250,00 em seu cartão de crédito pela receita e, por vingança, agora pede que a receita seja divulgada pelo mundo inteiro de graça. A história é uma mentira, mas dizem que a receita funciona (veja em http://www.bl.net/forwards/cookie.html).

Correntes e totens da sorte: Correntes da sorte existem há anos, mas antes seguiam através de correio tradicional. Agora, com o advento da Internet, ficou muito mais fácil encher a paciência de todos. Ao receber esse tipo de e-mail, não passe adiante. Pode ficar tranqüilo porque, ao contrário do que a mensagem afirma, nenhum raio cairá sobre a sua cabeça nem nenhum ente querido morrerá.

Por congestionar a rede e encher a paciência de quem recebe esse tipo de e-mail, recomendamos que você não passe nenhum tipo de história adiante e avise ao remetente que a mensagem trata-se de uma lenda urbana (ou um hoax, no caso de mensagens que informam sobre vírus que não existem, como explicamos na semana passada).

Se você quiser, poderá ler mais sobre lendas urbanas nos endereços http://www.urbanlegends.com e http://chainletters.org/ (Agradecemos a Rosana Hermann pelos endereços).

fonte: Gabriel Torres - www.clubedohardware.com.br

Fraudes de Internet

Nas últimas semanas, duas grandes entidades federais - o Banco do Brasil e a Receita Federal - divulgaram golpes que estão sendo scudere9 aplicados através da Internet usando o nome dessas instituições. Aproveitamos a oportunidade para explicar as táticas mais comuns dos estelionatários, de forma que você não tenha prejuízo em golpes.

Uma das técnicas usadas é criar um site de compras on-line ou de acesso restrito (por exemplo, um site de conteúdo erótico) com a opção de pagamento através de débito automático. Os sites estampam logomarcas dos bancos para você clicar e autorizar o débito, entrando o número de sua agência, conta e senha, em uma página com layout similar ao usado pelo site do banco. Em seguida, o site emite um comprovante de compra ou libera um login e uma senha (no caso de sites de conteúdo restrito) e você pensa que está tudo bem.

Só que esse site do banco é de mentira, e o que o golpista faz é capturar os dados de sua conta corrente. Enquanto você fica achando que a transação foi efetuada com sucesso, o golpista pode usar os seus dados para retirar dinheiro de sua conta-corrente.

A nossa recomendação, portanto, é que ao entrar em um site de vendas on-line ou de acesso pago desconhecido, você procure todos os dados da empresa e faça o depósito através de sua conta-corrente, mandando o comprovante da operação por fax. É claro que você também corre o risco de a empresa ser uma empresa fantasma, por isso é recomendável de você procurar saber sobre a reputação da empresa.

Outra versão desse tipo de golpe é o recebimento de e-mails supostamente vindo do seu banco solicitando o número de sua senha. Nenhum banco trabalha dessa forma, sendo que todo o procedimento de troca de senha só pode ser efetuado pessoalmente nas agências.

Invasão de Privacidade

É incrível no Brasil como as pessoas não prestam tanta atenção à invasão de privacidade, o que pode dar margem a golpes. Por exemplo, é muito comum recebermos telefonemas pedindo a confirmação de dados pessoais por parte de alguma suposta empresa. Sempre que você receber um telefonema desse tipo, tome muito cuidado no que vai dizer, pois pode ser um golpista querendo seus dados pessoais. Se você trabalha fora, é imprescindível treinar quem passa o dia em sua casa (empregada, faxineira, filhos, etc) para não dar nenhum tipo de informação pessoal (hábitos diários, nome de bancos onde você mantém conta, etc).

A versão eletrônica desse tipo de coleta de dados foi criada recentemente. Na semana passada a Receita Federal divulgou que um golpista estava mandando um spam como sendo um e-mail da Receita Federal com uma ficha de cadastro para que você baixasse rapidamente o programa do Imposto de Renda. Só que essa ficha era falsa, e o golpista capturava todos os seus dados, incluindo o seu CPF (somente se você preenchesse a ficha, obviamente) para usar em golpes.

De posse de todos os seus dados pessoais e, principalmente, de posse de seu CPF, um golpista pode, através de ações fraudulentas, abrir contas-corrente em seu nome, efetuar a compra de bens de forma parcelada (e não pagar as prestações, obviamente) e muito mais. E você só acaba descobrindo que foi vítima de um golpe quando descobre que o seu nome está em listas negras (SPC, Serasa, etc).

Nossa recomendação é tomar cuidado com sites que pedem informações pessoais demais. Por exemplo, o número do seu CPF não é necessário para nenhum tipo de operação, e sites que pedem esse documento devem ser considerados "suspeitos" de invasão de privacidade (a não ser, é claro, em sites de vendas on-line que pedem esse documento para a emissão da nota fiscal da sua compra).

fonte: Gabriel Torres - www.guiadohardware.com.br

Camada ISO-OSI

Conceitos

•Desenvolvido em 1983 pela ISO

•Modelo abstrato de redes

•Não existe rede implementada exatamente segundo modelo

•7 camadas

•Redes não necessitam implementar todas as camadas

•Cada camada efetua função bem definida

•Camadas definidas para minimizar comunicação entre elas

•Não detalha serviços

•Usado para referência

Estrutura

image

•Camada presta serviços para camada superior

•Camada usa serviços da camada inferior

•Camadas de mesmo nível “comunicam-se”

•Uma camada apenas toma conhecimento da camada inferior

•Interação entre camadas feita por serviços

•Divisão de tarefas

•Facilita abstração

Camada Fisica

•Transmissão de sequências de bits sobre meio físico

•Especifica

–voltagens ecorrentes

–tempos

–conectores e pinagens

–meio físico utilizado

–aspectos eletrônicos e mecânicos

•Domínio da engenharia eletrônica

•Não trata de correção de erros na transmissão

Camada Enlace

•Organiza sequências de bits em conjuntos de bits chamados frames

•Reconhece início e fim de frames

•Detecta perdas de frames e requisita retransmissão

Camada Apresentação

•Trata da representação dos dados em alto nível

•Adoção de sistema padronizado de representação de caracteres

•Adoção de códigos de representação numérica padrão

•Compressão de dados

Codificação de dados

Camada Aplicação

•Aplicações que oferecem os serviços ao usuário final

•Unificação de sistemas de arquivos e diretórios

•Correio eletrônico

•Login remoto

•Transferência de arquivos

•Execução remota

TCP/IP

Internet

•Início em 1969

•Baseado em um conjunto de protocolos onde os mais importantes são o TCP e o IP

•Financiado pela ARPA

•Objetivos militares

•Sem ponto central de coordenação

•ARPANET - anos 70

•NSFNET - anos 80

Difusão mundial hoje

Modelo de Camadas

image

•Implementação parcial do modelo ISO-OSI

•Apenas 4 camadas

•Ethernet - camadas 1 e 2

•IP - camada 3

•TCP - camada 4

•Ftp, Telnet, etc - camadas 5, 6 e 7

Ethernet

•Implementa 2 primeiras camadas do conjunto de protocolos TCP/IP

•Protocolo de acesso ao meio mais comum

•Transmissão serial

•Baseado em broadcasts

•Padronizado (IEEE 802.3)

•Placas de rede identificadas por código de 48 bits chamado MAC address gravadas durante sua fabricação

•Outros: PPP, X.25, etc

CSMA/CD

•Disciplina compartilhamento do meio de transmissão entre todos os copmutadores

•Carrier Sense Multiple Access / Colision Detect

•Verifica meio antes de transmitir

•Aguarda tempo aleatório após liberação do meio antes de iniciar a transmissão

•Colisão ainda é possível se computadores transmitem simultaneamente e deve ser detectada

•Transmissão verificada para detectar corrupção de dados e possível colisão

•Retransmissão de dados no caso de colisão

IP

•Internet Protocol

•Equivale a camada 3

•Trabalha com apenas com datagramas

•Sem controle de erros

•Presta serviços de roteamento

image

Endereçamento IP

•Utiliza 4 bytes

•Representação decimal: 200.145.31.1

•Classes:

–A:0.X.X.X a 127.X.X.X, 128 redes de 16 milhões de computadores

–B:128.X.X.X a 191.X.X.X, 16 mil redes de 65 mil computadores

–C: 191.X.X.X a 223.X.X.X, 2 milhões de redes de 256 computadores

•Endereçamento hierárquico

•Rotas decididas em função do número da rede

image

Mascara de Rede

•Utilizado para definir a rede a qual pertence o computador

•Máscara típica: 255.255.255.0

•255 em binário é 11111111

•A rede do computador é obtida a partir de um AND entre o endereço do computador e a máscara

•Se a rede do computador destino for a mesma do computador origem o dado é enviado diretamente para o computador destino através da sub-rede (ethernet)

•Se a rede for diferente os pacotes são enviados para o roteador

image

Roteamento

•Hierárquico

•Utiliza o endereço da rede para determinar a localização dos computadores

•O endereço da rede determina a localização do computador na rede

•Ex: Se um computador se mover do DEMAC para o CEAPLA ele deve ter seu número IP alterado

•Eficiente (Novel não utiliza este tipo de numeração e roteamento hierárquico, portanto é menos eficiente)

•Roteamento pode ser estático ou dinâmico

•Estático sempre utiliza as mesmas rotas para um determinado endereço

•Dinâmico avalia o estado das rotas possíveis para um determinado endereço e escolhe a melhor

Ex: RIP, OSPF, etc

ARP

•Address Resolution Protocol

•Relaciona endereços IP e MAC

•Evita que tenha-se que saber detalhes da camada física (sub-rede) e que se tenha de alterar configuração no caso de mudanças na placa de rede

•Para descobrir o MAC de um determinado IP faz-se o broadcast solicitando identificação

•Todos computadores ouvem e apenas aquele que tiver aquele IP retorna uma resposta

•A tabela MAC-IP fica armazenada no computador que solicitou a descoberta

•Ex: arp mostra a tabela IP-MAC obtida pelo computador

DHCP

•Dinamic Host Configuration Protocol

•Utilizado para configurar o TCP/IP no computador automaticamente, sem intervenção do usuário

•Pode configurar IP, DNS, Gateway, etc

•Utiliza o MAC para obter um IP do servidor DHCP

•Configuração com um tempo de validade (tempo de aluguel)

•Configuração é dinâmica pois após o tempo de aluguel ela pode ser alterada

•Na nossa rede não utilizamos a configuração dinâmica

•Ex: winipcfg

TCP e UDP

•Trabalham sobre o IP

•Utilizam os serviços de identificação e roteamento oferecidos pelo IP

•Introduzem o conceito de portas para identificar o processo de comunicação no computador origem e destino

•Comunicação é feita entre processos de dois computadores e não simplesmente entre dois computadores

•Ex: SMTP - porta 25, Telnet - porta 23, etc

•Serviços clássicos são definidos pelas well-known ports

•Ex: /etc/services lista os serviços e portas

UDP

•User Datagram Protocol

•Simplesmente acrescenta as portas ao IP

•Oferece serviços de entrega de datagramas (pacotes)

•Não cuida do sequenciamento de pacotes

•Estaria “entre” a camada 3 e 4, pois não implementa sequenciamento de pacotes

•Não implementa checagem e correção de erros (não confiável)

•Utilizado eficientemente em redes locais, que já possuem mecanismos de checagem de erros em nível mais baixo

•Ex: NFS (Network File System), SNMP

TCP

•Transport Control Protocol

•Oferece serviços de transmissão de streams

•Fragmenta os streams em pacotes e os entrega a camada IP

•Protocolo confiável com checagem de erros

•Implementa camada 4

•Implementa portas

•Mais complexo e mais lento que UDP

•Ex: FTP, Telnet, SMTP (mail)

Serviços

•Implementa as camadas 5, 6 e 7

•São os aplicativos que interagem com o usuário

•Ex: FTP, Telnet, SMTP, NFS, SNMP

image

Bibiografia

•Tannenbaum, Computer Networks, Prentice-Hall

•Arnet et al, Desvendando TCP/IP, Ed. Campus

•Comer e Stevens, Internetworking with TCP/IP, Prentice-Hall

•Craig, TCP/IP Network Administration, O’Reilly

•Cyclades, Guia Internet de Conectividade

•man pages UNIX

05 maio 2008

Brincando com o SLACKPKG - Pacotes SLACKWARE

A principal função do slackpkg é verificar se existe versão mais recente de um ou mais dos pacotes slackwareinstalados em seu sistema, baixar o novo pacote e fazer a atualização para você. Com isso ganhamos vários recursos como “brinde”; afi nal, se já temos uma lista de pacotes, é possível usá-la para consultar, baixar e instalar os que você ainda não tem e, eventualmente, reinstalar aqueles que já estão no sistema (vai saber o que você fez com eles para precisar reinstalar…).
Atualizar, instalar e reinstalar, é só isso que dá pra fazer? Não! Assim como nos produtos vendidos através de comerciais de TV, se ligar agora você leva muito mais! Com o slackpkg você pode procurar
por um determinado arquivo e saber a qual pacote ele pertence ou, se preferir, consultar a descrição de um pacote antes de instalá-lo.

Obtendo o slackpkg

O primeiro passo é conseguir sua própria cópia, zero KM, do slackpkg. É fácil, basta visitar o site ofi cial [1] e baixar o programa, que tem cerca de 30 KB. Depois, instale-o com o utilitário installpkg, parte do sistema de gerenciamento de pacotes do Slackware:

installpkg slackpkg-versão-noarch-10.tgz

Pra quem não tem acesso à Internet, o programa também pode ser encontrado no diretório extra dos CDs do Slackware 9.1 (ou de versões mais recentes) e em todos os mirrors do servidor FTP ofi cial
da distribuição. Nesse caso instalação também é feita via installpkg, da mesma forma citada anteriormente.

Usando o slackpkg

A primeira coisa a fazer é editar o arquivo /etc/slackpkg/mirrors e escolher um mirror de onde baixar os pacotes. O arquivo já contém uma lista enorme de vários servidores com pacotes para pelo menos três versões do Slackware. Para escolher um deles, basta descomentar (apagando o caractere #) a linha correspondente.

Feito isso, vamos atualizar a lista de pacotes:

# slackpkg update

Isso vai baixar a lista com os pacotes que compõem o Slackware, suas descrições e uma terceira lista com seu conteúdo. Na primeira vez que for executada a operação update, o slackpkg também vai
baixar a chave PGP do projeto Slackware, que é utilizada para verificar a autenticidade dos arquivos. Se por algum motivo você precisar atualizar ou reinstalar a chave, basta digitar:

# slackpkg update gpg

Agora que tudo está pronto, vamos brincar um pouco. Digite:

# slackpkg upgrade slackware

O comando acima vai atualizar toda a distribuição. Muito cuidado, pois o conceito de “atualização” do slackpkg significa: “manter os pacotes locais iguais aos do servidor espelho selecionado”.
Se você estiver usando o Slackware 10.1 e escolher um mirror da versão 10.0, na verdade todos os seus pacotes irão regredir para seus equivalentes na versão 10.0. Parabéns, você acabou de fazer
um downgrade do sistema inteiro! Por incrível que pareça, isso pode ser útil em alguns casos.

Se você estiver usando a versão estável do Slackware e quiser baixar apenas os patches e atualizações de segurança, digite o comando:

# slackpkg upgrade patches

E se você tiver apenas o primeiro CD do Slackware e precisar instalar algo que está no segundo disco? Sem problemas, é possível, por exemplo, instalar todo o GNOME com o comando:

# slackpkg install gnome/

Também é possível instalar apenas o pacote de internacionalização do KDE para o português do Brasil (vulgo pt_BR no mundo Unix):

# slackpkg install kde-i18n-pt_BR

Brincando, você viu que o slackpkg consegue tratar tanto da distribuição inteira como de uma das séries de pacotes e até mesmo instalar pacotes um a um pelo nome. Isso acontece porque ele não trabalha com o nome do pacote em si, mas sim com um sistema de reconhecimento de padrões. Veja como os arquivos são organizados num mirror da distribuição:


raiz/slackware/ap/kbd-xyz.tgz

Assim, um upgrade slackware atualizará tudo que estiver debaixo do diretório slackware na árvore. Se trocarmos slackware por ap, serão atualizados apenas os pacotes dentro do diretório ap e, se especificarmos o nome do pacote, apenas ele será instalado. Claro que isso também vale para operações como install ou reinstall.

O slackpkg é inteligente. Se digitar:

# slackpkg install ap/

e algum dos pacotes da série ap tiver uma atualização de segurança no diretório patches, é a ela que será instalada (a não ser que você altere a ordem de busca no arquivo de confi guração do slackpkg,
/etc/slackpkg/slackpkg.conf).

E não é só isso!

Algumas partes do Slackware são comumente personalizadas (como arquivos de confi guração e scripts de inicialização) e não podem ser reescritas durante um upgrade. Isso é garantido pela própria estrutura de um pacote Slackware, onde esse tipo de arquivo tem o sufi xo .new.

Quando um arquivo de configuração não existe (ou seja, quando o pacote é instalado pela primeira vez), o que veio com o pacote é renomeado, perde o sufixo .new e tudo fi ca bem. Quando o arquivo
já existe, a versão anterior é mantida e a nova fi ca ao lado, como referência.

Como muita gente não costuma verificar os .new e movê-los para seus devidos lugares, no fi nal das contas o sistema fica infestado de .new e pode deixar de funcionar direito (isso é comum com os scripts de inicialização no diretório /etc/rc.d).

Se você costuma se esquecer dos .new não se preocupe, pois o slackpkg não se esquece! Após instalar, atualizar ou reinstalar qualquer pacote, todo o diretório /etc é verificado em busca de arquivos .new e o usuário tem a opção de manter os arquivos de confi guração como estão, colocar os .new em ação e preservar seus
originais com o sufi xo .orig, remover todos os .new ou, se preferir, dizer caso a caso o que fazer com os benditos arquivos de configuração. Se você não quer ser importunado com esse detalhe toda vez que for atualizar algum pacote, basta editar o arquivo /etc/slackpkg/slackpkg.
conf e desativar a opção POSTINST.

E ainda tem mais!


Existe ainda a função de procura de arquivos, muito útil para descobrir a qual pacote pertence um arquivo. Quer saber de onde veio o ls?:


# slackpkg search ls
The list below shows all packages with
the selected pattern.
[ installed ] - bin-9.2.0-i486-2
[ installed ] - coreutils-5.2.1-i486-1
[ installed ] - dcron-2.3.3-i386-4
...
[uninstalled] - libxml-1.8.17-i486-3
[uninstalled] - modutils-2.4.25-i486-1

Xiii... apareceram vários arquivos (exatos 286 pacotes no Slackware 10.1); qual deles é o correto? fácil: sabemos que o ls é um comando, portanto digitamos:

# slackpkg search bin/ls
The list below shows all packages with
the selected pattern.
[ installed ] - coreutils-5.2.1-i486-1
[ installed ] - e2fsprogs-1.35-i486-1
...
[ installed ] - kdegames-3.3.2-i486-1
[uninstalled] - wu-ftpd-2.6.2-i486-3

Agora obtivemos apenas 12 pacotes e podemos verifi car cada um deles para saber qual contém o que procuramos:

# slackpkg info nome_do_pacote

Da mesma maneira como encontramos o ls, podemos encontrar vários outros arquivos, como bibliotecas misteriosas:

# slackpkg search lib/libcaca

E, com isso, instalar “aquela” biblioteca que está faltando para compilar o programa xyz. Depois de achar o que procura e confirmar seu palpite com a operação info, é só usar o slackpkg e instalar o pacote que deseja.

Um último truque antes de darmos adeus à função de procura do slackpkg: se você souber exatamente o nome do arquivo que procura, pode adicionar um [^a-z] ou [^[:alpha:]] para excluir qualquer coisa após o termo de busca.

Por exemplo, uma busca por ls retornaria tanto ls quanto lsattr. Não se você incluir [^a-z] ao fi nal do termo. Um exemplo:

root@rachael:/home/punk# slackpkg search U bin/ls[^[:alpha:]]
The list below shows all packages with
the selected pattern.
[ installed ] - coreutils-5.2.1-i486-1
[uninstalled] - wu-ftpd-2.6.2-i486-3

Alguns cuidados

Vimos vários dos recursos do slackpkg. Ele baixa, instala, reinstala, atualiza, pesquisa e mostra informações sobre os pacotes. Mas ele não é realmente inteligente e, às vezes, pode não fazer exatamente o que seria o melhor para sua máquina.

Por isso, todas as opções que alteram o sistema solicitam confirmação; não há risco de você atualizar um pacote por engano ou acabar instalando todo o GNOME quando queria apenas o XChat.

No slackpkg você tem exatamente o que pede, nem um pacote a mais ou a menos. Controle total ou seu dinheiro de volta. Às vezes você quer baixar os pacotes, mas não tem tempo para examiná-los com cuidado. Para facilitar esse controle, com o slackpkg você pode baixá-los agora:


# slackpkg download gnome/

E instalá-los mais tarde:

# slackpkg upgrade gnome/

Ainda pensando em controle, nada pior do que ter uma nova versão do kernel instalada por cima da que foi cuidadosamente compilada por você mesmo. Para evitar isso, os pacotes do kernel podem ser colocados numa lista negra, ou blacklist:

# slackpkg blacklist kernel

Os pacotes na blacklist são total e solenemente ignorados pelo slackpkg. Se quiser retirar algo da blacklist, basta editar o arquivo /etc/slackpkg/blacklist.

Uma dica é colocar o pacote alsa-driver na blacklist, para não correr o risco do som deixar de funcionar após um upgrade.

O slackpkg é uma ferramenta versátil, poderosa e simples, que segue a tradição KISS (Keep It Simple, Stupid!) do Slackware.

Enquanto outras ferramentas tentam empurrar recursos alienígenas à
distribuição (como resolução de dependências), o slackpkg utiliza apenas as informações já disponíveis nos próprios pacotes. Além disso, baixa e instala apenas os pacotes ofi ciais, que têm garantia
de confi abilidade e estabilidade.

fonte: Página oficial do slackpkg: http://slackpkg.sf.net/

Crimpagem de Cabo de Redes CAT5e

Cabo de par Trançado Micro - HUB

Além dos cabos sem blindagem conhecidos como UTP (Unshielded Twisted Pair), existem os cabos blindados conhecidos como STP (Shielded Twisted Pair). A única diferença entre eles é que os cabos blindados além de contarem com a proteção do entrelaçamento dos fios, possuem uma blindagem externa (assim como os cabos coaxiais), sendo mais adequados a ambientes com fortes fontes de interferências, como grandes motores elétricos e estações de rádio que estejam muito próximas. Outras fontes menores de interferências são as lâmpadas fluorescentes (principalmente lâmpadas cansadas que ficam piscando), cabos elétricos quando colocados lado a lado com os cabos de rede e mesmo telefones celulares muito próximos dos cabos.

Quanto maior for o nível de interferência, menor será o desempenho da rede, menor será a distância que poderá ser usada entre os micros e mais vantajosa será a instalação de cabos blindados. Em ambientes normais porém os cabos sem blindagem costumam funcionar bem. Existem no total, 5 categorias de cabos de par trançado. Em todas as categorias a distância máxima permitida é de 100 metros. O que muda é a taxa máxima de transferência de dados e o nível de imunidade a interferências.

Categoria 1: Este tipo de cabo foi muito usado em instalações telefônicas antigas, porem não é mais utilizado.

Categoria 2: Outro tipo de cabo obsoleto. Permite transmissão de dados a até 4 mbps.

Categoria 3: Era o cabo de par trançado sem blindagem usado em redes até alguns anos atrás. Pode se estender por até 100 metros e permite transmissão de dados a até 10 Mbps. A diferença do cabo de categoria 3 para os obsoletos cabos de categoria 1 e 2 é o numero de tranças. Enquanto nos cabos 1 e 2 não existe um padrão definido, os cabos de categoria 3 (assim como os de categoria 4 e 5) possuem atualmente de 24 a 45 tranças por metro, sendo muito mais resistente a ruídos externos. Cada par de cabos tem um número diferente de tranças por metro, o que atenua as interferências entre os cabos. Praticamente não existe a possibilidade de dois pares de cabos terem exatamente a mesma disposição de tranças.

Categoria 4: Por serem blindados, estes cabos já permitem transferências de dados a até 16 mbps, e são o requisito mínimo para redes Token Ring de 16 mbps, podendo ser usados também em redes Ethernet de 10 mbps no lugar dos cabos sem blindagem.

Categoria 5: Este é o tipo de cabo de par trançado usado atualmente, que existe tanto em versão blindada quanto em versão sem blindagem, a mais comum. A grande vantagem sobre esta categoria de cabo sobre as anteriores é a taxa de transferência, até 100 mbps.

Os cabos de categoria 5 são praticamente os únicos que ainda podem ser encontrados à venda, mas em caso de dúvida basta checas as inscrições decalcadas no cabo, entre elas está a categoria do cabo, como na foto abaixo:

clip_image001


“Category 5e”

Independentemente da categoria, todos os cabos de par trançado usam o mesmo conector, chamado RJ-45. Este conector é parecido com os conectores de cabos telefônicos, mas é bem maior por acomodar mais fios. Uma ponta do cabo é ligada na placa de rede e a outra no hub. Para crimpar o cabo, ou seja, para prender o cabo ao conector, usamos um alicate de crimpagem. Após retirar a capa protetora, você precisará tirar as tranças dos cabos e em seguida “arruma-los” na ordem correta para o tipo de cabo que estiver construindo (veremos logo adiante).

clip_image003

Veja que o que protege os cabos contra as interferências externas é são justamente as tranças. A parte destrançada que entra no conector é o ponto fraco do cabo, onde ele é mail vulnerável a todo tipo de interferência. Por isso, é recomendável deixar um espaço menor possível sem as tranças, se possível menos de 2,5 centímetros. Para isso, uma sugestão é que você destrance um pedaço suficiente do fio, para ordena-los confortavelmente e depois corte o excesso, deixando apenas os 2 centímetros que entrarão dentro do conector:

clip_image005

Finalmente, basta colocar os fios dentro do conector e pressiona-lo usando um alicate de crimpagem.

clip_image007

A função do alicate é fornecer pressão suficiente para que os pinos do conector RJ-45, que internamente possuem a forma de lâminas, esmaguem os fios do cabo, alcançando o fio de cobre e criando o contato. Você deve retirar apenas a capa externa do cabo e não descascar individualmente os fios, pois isto ao invés de ajudar, serviria apenas para causar mau contato, deixado o encaixe com os pinos do conector “frouxo”.

clip_image009

Os alicates para crimpar cabos de par trançado são um pouco mais baratos que os usados para crimpar cabos coaxiais. Os alicates mais simples custam a partir de 40 reais, mas os bons alicates custam bem mais. Existem alguns modelos de alicates feitos de plástico, com apenas as pontas de metal. Estes custam bem menos, na faixa de 15 reais, mas são muito ruins, pois quebram muito facilmente e não oferecem a pressão adequada. Como no caso dos coaxiais, existe também a opção de comprar os cabos já crimpados, o ideal caso você não pretenda montar apenas sua rede doméstica ou da empresa, e não trabalhar profissionalmente com redes. Um problema óbvio em trabalhar com cabos já crimpados é que será quase impossível passa-los através das paredes, como seria possível fazer com cabos ainda sem os conectores. Existe uma posição certa para os cabos dentro do conector. Note que cada um dos fios do cabo possui uma cor diferente. Metade tem uma cor sólida enquanto a outra metade tem uma cor mesclada com branco. Para criar um cabo destinado a conectar os micros ao hub, a seqüência tanto no conector do micro quanto no conector do hub será o seguinte:

lado 1 lado 2
clip_image010 clip_image010[1]

1- Branco / Laranja

2- Laranja

3- Branco / verde

4- Azul

5- Branco / Azul

6- Verde

7- Branco / marrom

8- Marrom

1- Branco / Laranja

2- Laranja

3- Branco / verde

4- Azul

5- Branco / Azul

6- Verde

7- Branco / marrom

8- Marrom

Crossover cable

Para montar uma rede ligando um computador direto no outro você vai precisar de um cabo crossover. A crimpagem do cabo crossover é a seguinte:

clip_image011

fonte: sem fontes

Como recuperar Dados do HD defeituoso

Para muitos, o pior pesadelo seria se o HD do micro de trabalho, imagecom todos os arquivos importantes simplesmente parasse de funcionar, ou então que os dados fossem apagados por um vírus ou semelhante.
A melhor prevenção contra este tipo de acidente ainda é o bom e velho backup, mas, caso o estrago já tenha sido feito, ou melhor, os dados já tenham sido perdidos, e não exista nem sombra de um backup atualizado, confira neste tutorial algumas dicas para recuperar dados de arquivos deletados ou HDs formatados, bem como HDs que simplesmente pararam de funcionar.
1 - Como um HD funciona
Antes de mais nada, aqui está um pouco de teoria de como funciona um HD atual, estes conhecimentos são importantes para as
dicas a seguir.
Dentro do disco rígido, os dados são gravados em discos magnéticos, chamados em Inglês de platters. O nome “disco rígido” vem
justamente do fato dos discos internos serem lâminas metálicas extremamente rígidas. Os platters são compostos de duas
camadas.
A primeira é chamada de substrato, e nada mais é do que um disco metálico, geralmente feito de ligas de alumínio. Este disco é
polido em salas limpas, para que se torne perfeitamente plano. A fim de permitir o armazenamento de dados, este disco é
recoberto por uma segunda camada, agora de material magnético. A aplicação da camada magnética é feita dos dois lados do
disco.
Como a camada magnética tem apenas alguns mícrons de espessura, é recoberta por uma fina camada protetora, que oferece
alguma proteção contra pequenos impactos. Esta camada é importante, pois apesar dos discos serem encapsulados em salas
limpas, eles internamente contêm ar, com pressão semelhante à ambiente. Como veremos adiante, não seria possível um disco
rígido funcionar caso internamente houvesse apenas vácuo.
Os HDs são hermeticamente fechados, a fim de impedir qualquer contaminação proveniente do meio externo, porém, nunca é
possível manter um ambiente 100% livre de partículas de poeira. Um pequeno dano na camada protetora não interfere no
processo de leitura/gravação, que é feito de forma magnética.
Os discos são montados em um eixo também feito de alumínio, que deve ser sólido o suficiente para evitar qualquer vibração dos
discos, mesmo a altas rotações. Este é mais um componente que passa por um processo de polimento, já que os discos devem
ficar perfeitamente presos e alinhados.
Finamente, temos o motor de rotação, responsável por manter uma rotação constante. O motor é um dos maiores responsáveis
pela durabilidade do disco rígido, pois a maioria das falhas graves provêem justamente do motor.
Os HDs mais antigos utilizavam motores de 3.600 rotações por minuto, enquanto que atualmente, são utilizados motores de
5.600 ou 7.200 RPM, que podem chegar a mais de 10.000 RPM nos modelos mais caros. A velocidade de rotação é um dos
principais fatores que determinam a performance do seu PC.
Para ler e gravar dados no disco, usamos cabeças de leitura eletromagnéticas (heads em Inglês) que são presas a um braço
móvel (arm), o que permite seu acesso a todo o disco. O braço de leitura é uma peça triangular feita de alumínio ou ligas deste,
pois precisa ser ao mesmo tempo leve e resistente. Um dispositivo especial, chamado de atuador, ou “actuator” em Inglês,
coordena o movimento das cabeças de leitura.
Nos primeiros discos rígidos, eram usados antiquados motores de passo para movimentar os braços e cabeças de leitura. Porém,
além de muito lentos, eles eram muito susceptíveis a problemas de desalinhamento, além de não serem muito confiáveis. Os
discos contemporâneos (qualquer coisa acima de 40 MB) utilizam um mecanismo bem mais sofisticado para esta tarefa,
justamente o actuator, composto por um dispositivo que atua através de atração e repulsão eletromagnética. Basicamente temos
dois eletroímãs, um de cada lado do braço móvel. Alterando a intensidade da corrente elétrica e, consequentemente a potência de
cada imã, o braço e consequentemente as cabeças de leitura se movimentem. Apesar de parecer suspeito, esse sistema é muito
mais rápido, preciso e confiável que os motores de passo.
Outro dado interessante é a maneira como as cabeças de leitura lêem os dados, sem tocar na camada magnética. Se você tiver a
oportunidade de ver um disco rígido aberto, verá que, com os discos parados, as cabeças de leitura são pressionadas levemente
em direção ao disco, tocando-o com uma certa pressão. Porém, quando os discos giram à alta rotação, forma-se uma espécie de
colchão de ar (pois os discos são fechados hermeticamente, mas não à vácuo, temos ar dentro deles). Este colchão de ar repele a
cabeça de leitura, fazendo com que fique sempre a alguns mícrons de distância dos discos, é mais ou menos o mesmo princípio
utilizado nos aviões.
Veja que enquanto o HD está desligado, as cabeças de leitura ficam numa posição de descanso, longe dos discos magnéticos. Elas
só saem dessa posição quando os discos já estão girando à velocidade máxima. Para prevenir acidentes, as cabeças de leitura
voltam à posição de descanso sempre que não estão sendo lidos dados, apensar dos discos continuarem girando.
É justamente por isso que às vezes ao sofrer um pico de tensão, ou o micro ser desligado enquanto o HD é acessado (falta de
energia, por exemplo), surgem setores defeituosos. Ao ser cortada a energia, os discos param de girar e é desfeito o colchão de
ar, fazendo com que as cabeças de leitura possam vir a tocar os discos magnéticos.

Para diminuir a ocorrência deste tipo de acidente, nos HDs modernos é instalado um pequeno imã em um dos lados do actuator,
que se encarrega de atrair as cabeças de leitura à posição de descanso, toda vez que a eletricidade é cortada (tecnologia
chamada de auto-parking). A camada de proteção dos discos magnéticos, também oferece alguma proteção contra impactos, mas
mesmo assim, às vezes os danos ocorrem, resultando em um ou vários setores defeituosos, por isso, é sempre bom desligar o
micro apenas na tela “o seu computador já pode ser desligado com segurança” do Windows.
2 - A placa controladora
Todo o funcionamento do disco rígido, a movimentação da cabeça de leitura, a velocidade de rotação, a leitura e gravação dos
dados, o envio e recebimento de dados através da porta IDE, etc. é coordenado pela placa controladora. Nos HDs mais antigos, a
placa controladora era uma placa separada, conectada a um slot ISA e ligada ao HD por dois cabos de dados. Este arranjo era
muito ineficiente, pois a distância tornava a comunicação muito susceptível a interferências e corrupção de dados.
A partir do advento dos discos IDE, a placa controladora passou a fazer parte do próprio disco rígido. Nada mais lógico, pois a
placa controladora precisa ser construída de acordo com a arquitetura física do disco, e jamais funcionaria em outro modelo,
sendo assim, não existiria motivo para mantê-los separados. Além da praticidade, este arranjo permite uma comunicação de
dados muito mais eficiente, já que são usados cabos muitos mas curtos. É por isso que não dizemos “controladora IDE” e sim
“interface IDE”, pois ela funciona apenas como um meio de comunicação, já que a controladora faz parte do próprio disco rígido.
3 - Os defeitos mais comuns
Como você viu, os HDs atuais ainda baseiam-se em componentes mecânicos, que não são tão confiáveis quanto componentes
eletrônicos, um processador por exemplo.
Os problemas físicos mais comuns nos HDs são em primeiros lugar, os setores defeituosos, que surgem depois de piscadas na
energia elétrica, ou mesmo pelo envelhecimento da mídia. Os setores defeituosos não podem ser corrigidos, mas podem ser
marcados, para que o restante do HD possa continuar sendo usado.
Outro defeito comum, desta vez mais grave, é quando o motor de rotação do HD simplesmente para de funcionar, neste caso os
discos não giram, o HD não é mais reconhecido no Setup, simplesmente "morre".
Outra possibilidade são os erros de posicionamento nas cabeças de leitura. Isto acontece quando por qualquer motivo, a
controladora não consegue detectar a posição das cabeças de leitura sobre os discos magnéticos. Este defeito é comum em HDs
antigos, onde os sinais magnéticos que permitem a identificação já estão mais fracos. Neste defeito, o HD gira, mas você ouvirá
alguns clicks, e ele não será reconhecido no Setup.
Apesar de ser mais raro, a culpada também pode ser a placa controladora do HD. Neste caso a gama de problemas é grande.
Pode ser que o HD simplesmente "morra", que os discos girem, mas o HD não seja reconhecido no Setup, nem funcione de forma
alguma, etc. Pegue uma lupa e examine a placa lógica em busca de capacitores ou chips queimados, contatos rompidos, que
possam ser responsáveis pelos defeitos.
4 - O HD pifou, e agora?
Sem dúvida, esta não é uma experiência muito agradável não é mesmo? Existem companias especializadas em recuperação de
dados de HDs com defeito, algumas equipadas com salas limpas e outros tipos de equipamentos, o grande problema é o preço
deste tipo de trabalho, que facilmente pode ultrapassar os 2000 reais. Além disso, nunca existe garantia de que os dados
realmente serão recuperados. Se você prefere tentar você mesmo, a seguir vão algumas dicas úteis:
5 - Os dados foram apagados mas o HD funciona
O modo através do qual os dados são gravados no disco rígido, permite que praticamente qualquer dado anteriormente apagado
possa ser recuperado. Na verdade, quando apagamos um arquivo, seja através do DOS ou do Windows Explorer, é apagada
apenas a referência a ele na FAT, a tabela gravada no início do disco rígido que armazena a localização de cada arquivo no disco.
Com o endereço anteriormente ocupado pelo arquivo marcado como vago na FAT, o sistema operacional considera vaga a parcela
do disco ocupada por ele. Porém, nada é realmente apagado até que um novo dado seja gravado subscrevendo o anterior. É como
regravar uma fita K-7: a música antiga continua lá até que outra seja gravada por cima.
O Norton Utilities possui um utilitário, chamado “Rescue Disk”, que permite armazenar uma cópia da FAT em disquetes. Caso seu
HD seja acidentalmente formatado por um vírus, ou por qualquer outro motivo, você poderá restaurar a FAT com a ajuda destes
discos, voltando a ter acesso a todos os dados como se nada tivesse acontecido.
Além do Norton, existem vários outros programas extremamente amigáveis especializados em recuperação de dados, mesmo
caso não exista backup algum da FAT. A Ontrack tem o seu Easy Recovery (chamado de Tiramissu, em versões anteriores) com
versões para Fat 16, Fat 32, NTFS, Novel Netware e discos Zip/Jaz. Estes programas são capazes de recuperar arquivos
apagados, ou mesmo um HD inteiro vítima da ação de vírus, mesmo que qualquer vestígio da FAT tenha sido apagado. Ele faz
isso baseando-se nas informações no final de cada cluster, e baseado em estatísticas. Realmente fazem um bom trabalho,
recuperando praticamente qualquer arquivo que ainda não tenha sido reescrito. Estes não são exatamente programas baratos. A
versão Personal, custa 179 dólares, enquanto a Professional, que oferece alguns recursos avançados, custa absurdos 489 dólares.
Existe uma demonstração gratuíta que apenas mostra os arquivos que podem ser recuperados (como são generosos não é
mesmo...). Esse programa podem ser comprado em: http://www.ontrack.com/
Na mesma categoria, temos também o Lost and Found da Power Quest. O modo de recuperação é bem parecido com o usado pelo
Easy Recovery, e a eficiência também é semelhante, sua vantagem é ser bem mais barato, e ter versão em Português. Existe
ainda um demo que pode ser baixado gratuitamente. Informações disponíveis em http://www.powerquest.com.br/
Usando qualquer um dos dois programas, a chance de recuperar dados que ainda não tenham sido reescritos é muito grande, isso
caso o HD não tenha nenhum defeito de hardware claro.
Mais uma dica é que alguns vírus podem bloquear o acesso ao HD, fazendo com que você não consiga acessa-lo nem mesmo
usando um disco de boot. Neste caso, dê boot via disquete e use o comando FDISK /MBR, isto zera o setor de boot do HD. Em
seguida, passe uma antivírus atualizado. Pode ser que você nem precise do programa de recuperação de dados.
6 - O HD não é sequer detectado pelo BIOS
Existe um truque que costuma dar certo, e vale à pena tentar primeiro pois não traz riscos. Coloque o HD dentro de um plástico
hermeticamente fechado e deixe no Freezer por 4 horas ou mais. Parece estranho, mas tem sua lógica, o frio altera a posição das

marcas magnéticas nos discos (contração do material) e alguns componentes do HD funcionam melhor a baixas temperaturas.
Reinstale rapidamente o HD, cruze os dedos. Existe uma possibilidade razoável dele voltar a funcionar durante alguns minutos,
tempo suficiente para fazer uma cópia dos dados mais importantes e aposenta-lo definitivamente. Por incrível que pareça, isso
também costuma funcionar com CDs riscados que não lêem mais.
Experimente também passar no site do fabricante e configurar o HD manualmente no Setup, dando o número de trilhas, setores e
cilindros, como nos micros antigos, resolve em alguns casos raros. Experimente também dar boot usando um disquete com o boot
manager do fabricante, muitas vezes ele é capaz de acessar o drive, mesmo sem ter sido reconhecido pelo BIOS.
Se você ouvir o ruído dos discos girando, seguido de "click", "click", "click", significa que a placa lógica está tentando posicionar as
cabeças de leitura, mas não está conseguindo. Este defeito é comum em HD antigos. Experimente apoiar o HD sobre uma mesa,
na vertical e dar um tapinha sobre o lado superior. Um tapinha leve, pois como os HDs estão girando, um tranco mais forte pode
danificar os discos magnéticos e aí que os dados não vão mais ser recuperados mesmo.
Lembre-se que sempre, seja usando um programa de recuperação, seja usando algumas das outras dicas, você precisará manter
um segundo HD instalado para onde possa copiar os dados.
7 - O HD "morreu", nem ouço o ruído dos discos girando
Neste caso, existem duas hipóteses: o motor de rotação não está girando ou existe algum defeito grave na placa lógica. Comece
testando as voltagens do plugue alimentação, só para eliminar a possibilidade de defeitos na fonte. Também experimente instalalo
na segunda controladora IDE ou em outro micro, verificar o jumpeamento, o cabo IDE, etc. Apenas para eliminar estas
possibilidades mais banais.
Em seguida, examine a placa lógica do HD em busca de algum dano visível. Tente descobrir também as circunstâncias em que o
HD parou de funcionar.
O motor de rotação do HD não para de uma vez, é como um cooler, que vai perdendo potência gradualmente. Se o problema for
mesmo no motor de rotação, experimente dar um tapinha no HD, cerca de 2 ou 3 segundos após ligar o micro. Na maioria dos
casos, o motor volta a girar com o "tranco". Como no caso anterior, recupere imediatamente os dados que
forem importantes, pois ele pode voltar a falhar.
Se o tapinha não funcionar, você pode tentar um tapa um pouco mais forte, ou mesmo usar algum objeto, o cabo de uma chave
de fenda por exemplo. Como os discos não estão girando, a possibilidade de "terminar de danificar o drive" são pequenas. Desde
que os impactos estejam dentro do razoável, é claro, não adianta bater com uma marreta, :-).
Outra coisa, que às vezes dá certo é segurar o HD e gira-lo rapidamente, no sentido anti-horário logo após ligar o micro. Este é o
sentido de rotação dos discos. Caso tenha sorte, a lei da inércia se encarregará de dar o "empurrãozinho" que o motor de rotação
precisa.
Se for encontrado algum defeito na placa lógica, trilhas quebradas, capacitores queimados, algum CI que explodiu, etc. etc. as
opções são tentar corrigir o defeito, caso seja simples, ou então tentar encontrar outro HD de mesma marca e modelo e pegar
"emprestada" a placa lógica. Recupere os dados, devolva a placa ao doador e aposente o HD defeituoso.
8 - Não tenho mais nada a perder, mais alguma sugestão?
As dicas a seguir devem ser usadas apenas após ter esgotado todas as anteriores, pois permitirão fazer o HD funcionar por mais
alguns minutos ou horas, tempo suficiente para fazer uma cópia dos dados importantes, mas, em troca, o HD será
definitivamente condenado. Depois deste último fôlego servirá no máximo para fazer um relógio de parede :-). Mas, se você acha
que não tem mais nada a perder, está ponto de arrancar os
cabelos e jogar o finado HD pela janela, vamos lá:
O último recurso para tentar recuperar os dados é abrir o HD. Tente fazer isso num ambiente com o ar mais limpo possível. De
qualquer forma, o HD estará condenado apartir do momento que abri-lo. A poeira que entrar começará lentamente destruir os
discos magnéticos. Mas, antes disso você terá tempo de recuperar os dados.
Depois de aberto, ligue o cabo de força e o cabo flat. Ligue o micro e veja qual é o comportamento do HD. Se ele não estiver
girando, use o dedo para dar um empurrãozinho, se o motor estiver desgastado, isto fará com que ele gire. Com isto bastará
reconhece-lo no Setup e recuperar os dados. Toque o dedo no eixo de rotação, e não nos discos magnéticos.
Se os discos estiverem girando, mas as cabeças de leitura estiverem fazendo o click, click, click, como no exemplo anterior, peque
uma caneta, ligue o micro e empurre o braço de leitura cerca de 2 segundos após ligar o micro. Na maioria dos casos, isto fará a
placa lógica se "achar" e prosseguir com o boot. Novamente, faça backup o mais rápido possível.
Lembre-se que os dados ficam armazenados nos discos magnéticos do HD, o resto do mecanismo tem a função de dar acesso aos
dados gravados. Uma possibilidade é sempre encontrar um outro drive do mesmo modelo, abrir ambos e trocar os discos
magnéticos. Com isto o HD "bom" será aproveitado para ler os dados armazenados nos discos do HD ruim. Claro que isto deve,
ou deveria ser feito dentro de uma sala limpa, sem o velho problema da poeira. Mas, se não for possível enviar o HD para
nenhuma compania especializada, e não houver possibilidade de encontrar uma sala limpa, você pode, em último caso tentar
fazer isto sem o uso da sala, claro, que como no caso anterior, será só o tempo de fazer backup dos dados.

Considerações Finais:

ATENÇÃO: Os procedimentos a acima, requerem conhecimento moderado em informática e hardware. Não nos responsabilizamos, de forma alguma, por quaisquer danos causados em seu micro, em seus dados, no hardware ou qualquer outro que venha ser verificado. Antes de qualquer passo, imprima e leia atentamente esse texto.
Observação: Recuperar dados em um HD, desde que o problema não seja na superfície dos seus discos, sempre é possível. No entanto, quanto mais você tentar recuperar os dados em um equipamento
danificado, mais difícil será a recuperação dos dados por um profissional especializado. Se não sentir-se seguro nos procedimentos abaixo, não os execute e encaminhe seu HD à um profissional especializado.

fonte: Club do Hardware - www.clubedohardware.com.br