quinta-feira, 8 de julho de 2010

Emulador universal salva informação digital para futuras gerações

Quem gosta de jogos de computadores mais antigos costuma ter uma coleção de emuladores quase tão grande quanto a própria coleção de games. Isso acontece porque cada emulador é específico para uma plataforma, tanto de origem quanto de destino - um emulador que lhe permite hoje jogar Space Invaders no PC não o permitirá fazê-lo nas plataformas do futuro.




Emulador universal

Pensando nisto, um grupo de pesquisadores europeus começou um projeto mais ambicioso: eles estão construindo um emulador universal, um programa capaz de reconhecer e rodar todos os tipos de arquivos de computador já gerados até hoje,
O emulador universal reconhecerá os dados antigos nos computadores atuais e poderá ser facilmente atualizável para rodar nas novas arquiteturas de informática que ainda serão desenvolvidas no futuro.
O projeto foi batizado de Keep, a palavra em inglês para manter. O termo é também um acrônimo para Keeping Emulation Environments Portable - mantendo os ambientes de emulação portáveis.

Herança digital

O objetivo do Keep é garantir o acesso das futuras gerações a todos os arquivos digitais já produzidos e que serão produzidos doravante, incluindo arquivos de texto, som, imagens, multimídia, sites, bases de dados e videogames.
"As pessoas não pensam duas vezes ao salvar seus arquivos digitalmente - das fotos capturadas com o celular até arquivos com informações governamentais. Mas cada arquivo digital corre o risco de ser perdido, seja pela degradação da mídia, seja porque a tecnologia usada para lê-lo irá simplesmente deixar de existir," diz a professora Janet Delve.
"As antigas gerações deixaram um rico acervo de livros, cartas e documentos que nos dizem quem eles foram, como eles viveram e o que eles descobriram. Há um risco real de que nós possamos deixar como herança um espaço em branco na história," diz ela.

Escribas digitais

Um emulador universal pode ser a única opção para evitar essa perda de informações. Copiar todas os dados gerados para nas novas plataformas, à semelhança de escribas digitais modernos, é impraticável - calcula-se que em 2010 a informação digitalizada será equivalente a 18 milhões de vezes o conteúdo de todos os livros já escritos desde o início da civilização.
Além da dificuldade técnica, a simples cópia coloca riscos adicionais, tanto de erros nas cópias quanto de danos às mídias originais.
"A diferença com a emulação é que você está livre desses problemas. Cada vez que o hardware, o software, os sistemas operacionais ou qualquer outra coisa seja atualizada, a máquina Keep simplesmente emulará esta nova plataforma. Será um mecanismo à prova de futuro," diz Dan Pinchbeck, outro membro do grupo.
Os trabalhos do projeto Keep começaram em janeiro e deverão se estender até 2012.

Censo da Internet gera primeiro mapa completo da rede mundial

Está pronto o primeiro censo da Internet depois que a rede mundial transformou o mundo. Foram 62 dias de pesquisas e 3 bilhões de pings, em uma varredura que abrangeu os mais de 2,8 milhões de endereços atualmente alocados na rede mundial. O último censo havia sido feito em 1982, quando a Internet contava com apenas 385 servidores.


Ping global

"Um censo da Internet é exatamente isto: foi enviado um comando para cada endereço único alocado em toda a Internet," explica o pesquisador John Heidemannn, da Universidade Southern California, nos Estados Unidos.
O comando a que se refere o pesquisador é o ping, um pequeno programa existente em virtualmente todos os computadores, e cuja única tarefa é enviar uma espécie de "Olá" para outro computador e esperar a resposta. Tecnicamente esse "Olá" é um pacote de solicitação de resposta chamado ICMP - Internet Control Message Protocol.
A maioria dos comandos ping - 61% deles - não obteve resposta. Uma quantidade significativa do restante deu respostas como "Não perturbe" ou "Nenhuma informação disponível." Esse comportamento pode ser programado pelos administradores de rede em seus firewalls e roteadores.


Mapa numérico

Ainda assim, os cientistas conseguiram compilar o mais completo atlas da Internet já feito até hoje, compilando inclusive as "respostas negativas". Em resolução total, cada pixel do mapa representa 162 endereços IP individuais.
Embora o mapa mostre áreas geográficas, ele não é um mapa geográfico. Trata-se de um mapa numérico, construído sobre a estrutura matemática do sistema de endereços da Internet.


Endereços IP
Cada endereço, atribuído a cada servidor da Internet, é um número entre 0 e 2 elevado à 32ª potência - o que resulta em 4.294.967.295 possibilidades - escritos em uma notação característica de quatro números de base 10 separados por pontos - o já conhecido endereço IP. Cada um dos quatro números representa um segmento de 8 bits do endereço completo.

Esses endereços aparecem no mapa como uma rede de quadrados, cada quadrado representando todos os endereços começando com o mesmo número. O mapa foi organizado em ordem numérica crescente mas em um padrão circular, chamado curva de Hilbert. Com isto os endereços adjacentes são mantidos fisicamente próximos uns aos outros no quadro, permitindo que se faça um zoom perfeito, mostrando cada vez mais detalhes.


Mapa da Internet

Cada pixel da imagem do mapa representa as respostas médias de 65.536 endereços, codificados em um sistema de cores - se todas as respostas tiverem sido positivas o pixel é verde verde, se todas foram negativas o pixel é vermelho, com o amarelo representando iguais níveis de resposta e não-resposta e uma variada gradação para os dados intermediários.
Os pesquisadores também imprimiram uma versão do mapa da Internet no qual cada pixel representa um endereço individual. A uma resolução de 1.200 DPI, o mapa resultante é um quadrado cujos lados medem 2,75 metros.
Os cientistas agora querem construir um mapa dinâmico, que seja atualizado continuamente. Eles esperam com isso ter uma ferramenta incomparável para o monitoramento e a detecção de tendências no crescimento da rede mundial.

Windows Live SkyDrive : armazenamento de dados on-line

Trata-se de um serviço gratuito para armazenamento de dados on-line. Segundo a Microsoft, o Skydrive “funciona bem em qualquer computador Windows ou Macintosh”. O acesso é feito por meio de senha individual.
Inicialmente, é oferecido um espaço de 5 GB. Os arquivos podem ser organizados em pastas. As pastas podem ser configurados para acesso privativo, público ou compartilhado.
As vantagens do sistema são várias. Se o usuário planejar bem o uso, o Skydrive pode ser uma solução permanente de armazenamento de dados (as máquinas mudariam, mas os dados permaneceriam); o sistema proporcionaria uma cópia de segurança on-line, que será preservada caso o HD local apresente problemas; os dados ficam disponíveis remotamente, e podem ser compartilhados com quem se deseje.
O problema potencial, que inevitavelmente será discutido na internet, é a privacidade: certamente surgirão casos de acesso indevido e exposição indevida. Resta ver como a Microsoft lidará com essas questões que são sempre complicadas, ainda mais no caso de um serviço gratuito.

Apresentação Final

quarta-feira, 7 de julho de 2010

Copiando tudo para a web

Existem por aí diversas soluções de armazenamento on-line de arquivos, com recursos e capacidades variados. Ouve-se falar muito bem do Box.net e do Rsync.net, por exemplo, mas cada pessoa deve avaliar qual a solução cujos termos de serviço e de privacidade/confidencialidade melhor lhe sirva. Em especial, não é muito recomendado usar recursos cujos Termos de Serviço não incluam a disponibilidade como solução de armazenamento permanente de arquivos. Há quem use “gambiarras” baseadas no Gmail e outros sistemas de correio gratuitos para preservar seus arquivos, mas segurança envolve preocupar-se inclusive com os termos de uso. Dreamhost é mais recomendado a quem queira hospedar projetos web individuais e pessoais, e até pouco tempo atrás os termos de serviço da empresa eram bem específicos sobre o uso do vasto (a ponto de ser irreal) espaço em disco oferecido aos clientes , eles só podiam ser usados para arquivos de sites, e não para backup, para repositórios, e outras finalidades comuns.
Mas há poucos meses tudo mudou: cada cliente passou a contar com uma área de 50gb para backups via rede, que não é disponibilizada para acesso via web, e não tem as mesmas restrições de conteúdo – embora você não possa usar para arquivos cuja posse ou transferência seja ilegal, e nem deva usar para arquivos que comprometam a sua privacidade ou segurança além do nível em que você esteja disposto. Nitidamente, as condições servem para backup secundário, complementar a uma estratégia baseada em mídias locais (DVDs, por exemplo), inclusive porque a Dreamhost não faz backup adicional destes arquivos – se você apagar, ou se der erro nos sistemas de redundância de discos deles, já era. Para cópias únicas, não serve. Para backup secundário, é bom. Como backup primário, é melhor do que nada e, dependendo das ameaças que mais influenciam o risco dos seus dados, pode até ser melhor do que uma simples cópia em HD local.

Tipos de Backup

Tipos de backup
O utilitário de backup oferece suporte a cinco métodos para backup de dados no computador ou na rede.
Backup de cópia
Um backup de cópia copia todos os arquivos selecionados, mas não os marca como arquivos que passaram por backup (ou seja, o atributo de arquivo não é desmarcado). A cópia é útil caso você queira fazer backup de arquivos entre os backups normal e incremental, pois ela não afeta essas outras operações de backup.
Backup diário
Um backup diário copia todos os arquivos selecionados que foram modificados no dia de execução do backup diário. Os arquivos não são marcados como arquivos que passaram por backup (o atributo de arquivo não é desmarcado).
Backup diferencial
Um backup diferencial copia arquivos criados ou alterados desde o último backup normal ou incremental. Não marca os arquivos como arquivos que passaram por backup (o atributo de arquivo não é desmarcado). Se você estiver executando uma combinação dos backups normal e diferencial, a restauração de arquivos e pastas exigirá o último backup normal e o último backup diferencial.
Backup incremental
Um backup incremental copia somente os arquivos criados ou alterados desde o último backup normal ou incremental. e os marca como arquivos que passaram por backup (o atributo de arquivo é desmarcado). Se você utilizar uma combinação dos backups normal e incremental, precisará do último conjunto de backup normal e de todos os conjuntos de backups incrementais para restaurar os dados.
Backup normal
Um backup normal copia todos os arquivos selecionados e os marca como arquivos que passaram por backup (ou seja, o atributo de arquivo é desmarcado). Com backups normais, você só precisa da cópia mais recente do arquivo ou da fita de backup para restaurar todos os arquivos. Geralmente, o backup normal é executado quando você cria um conjunto de backup pela primeira vez.
O backup dos dados que utiliza uma combinação de backups normal e incremental exige menos espaço de armazenamento e é o método mais rápido. No entanto, a recuperação de arquivos pode ser difícil e lenta porque o conjunto de backup pode estar armazenado em vários discos ou fitas.
O backup dos dados que utiliza uma combinação dos backups normal e diferencial é mais longo, principalmente se os dados forem alterados com freqüência, mas facilita a restauração de dados, porque o conjunto de backup geralmente é armazenado apenas em alguns discos ou fitas.
http://technet.microsoft.com/pt-br/library/cc779607(WS.10).aspx

Dados armazenados em sistemas redundantes

Para EMC, o atentado ao World Trade Center transformou os conceitos de emergência na segurança de dados.
A EMC é a líder no armazenamento de dados em rede( NIS, de Network Information Storage), onde detém 39% do mercado com seus sistemas Symmetrix ( conjuntos de discos rígidos, memória, e software de controle com capacidade de até 80 terabytes). É a campeã no quesito segurança com o SRDF ( Symmetrix Remote Data Facility), dois sistemas Symmetrix redundantes, interconectados, sincronizados e controlado por um software que faz com que o sistema "espelho" assuma imediatamente as funções do sistema-base caso seu funcionamento seja interrompido.
Existem mais de 11 mil SRDF' s em todo o mundo, dos quais 27 estavam nas torres gêmeas, consta que 26 deles preservaram integralmente seus dados. O único que falhou estava espelhado na segunda torre.
Para minimizar as consequências de um desastre que possa destruir recursos de informação é necessária a implementação de um plano de continuidade. Esse plano deve ter definido seu escopo e pode ser restrito aos recursos de tecnologia, ou ser mais abrangente e contemplar a recuperação do negócio da organização.
Para ambos os casos, a recuperação das informações é fundamental. Cópias de segurança ou soluções que têm o mesmo objetivo, porém, com custos diferentes.
A solução de redundância em tempo real (espelhamento) é a mais eficiente e a que oferece maior grau de certeza de aproveitamento imediato da cópia dos dados perdidos. A escolha do local onde ficarão os dados espelhados é crítica para se enfrentar situações de desastre. Quanto mais longe é melhor. É melhor em termos de proteção, mas traz complicado custo e alguns procedimentos operacionais.

Um "giro" diferente no armazenamento de dados do futuro.


A próxima geração de computadores será "instantânea", no sentido de que eles não necessitarão passar pelo processo de "boot", no qual as informações têm que ser movidas do disco rígido para a memória. Eles também armazenarão dados em espaços menores e acessarão esses dados mais rapidamente, tudo isso consumindo menos energia do que as máquinas de hoje - graças, em parte, ao desenvolvimento de memórias de acesso aleatório magnéticas, as chamadas MRAM. Esses chips de memória MRAM armazenarão dados utilizando o spin dos elétrons, dando-lhes uma enorme vantagem sobre os chips atuais, que utilizam a carga dos elétrons.


Antes que a revolução da "spintrônica" possa começar, entretanto, será necessário um entendimento científico muito mais aprofundado dos óxidos metálicos complexos, materiais que apresentam um fenômeno único chamado magnetoresistência colossal (CMR: "Colossal MagnetoResistance"). Entre esses óxidos está uma classe de materiais conhecida como maganitos.
"Nos manganitos CMR, a aplicação de um campo magnético pode causar a alteração da resistência elétrica do material em até 1000 por cento," explica Charles Fadley, um físico filiado à Divisão de Ciência dos Materiais dos Laboratórios Berkeley e professor de física na Universidade da Califórnia, em Davis. "Hoje, os melhores equipamentos de armazenamento de dados são baseados no efeito GMR [magnetoresistência gigantesca], no qual o campo de aplicação reduz a resistência elétrica somente na faixa entre 20 e 50 por cento."
Fadley, trabalhando com seu orientando Norman Mannella, hoje na Universidade de Stanford, utilizou os feixes de raios-X leves (raios-X de baixa energia) excepcionalmente brilhantes do sofisticado laboratório Advanced Light Source (ALS), em Berkeley, para lançar novas luzes naquilo que poderá se mostrar como o elemento crucial do efeito CMR em maganitos e outros óxidos metálicos: a surpreendente formação de um tipo de polaron, um elétron que é de alguma forma ligado a uma distorção local dos átomos de um cristal.
A distorção cria um tipo de "poço" de energia que aprisiona o elétron, como um pedaço de grama arrancado segura uma bola de golfe que está deslizando. O tipo de polaron que Fadley e Mannella detectaram é chamado polaron Jahn-Teller, em homenagem a Hans Jahn e Edward Teller (o mesmo Teller que mais tarde auxiliaria no desenvolvimento da bomba de hidrogênio), que previram as distorções dos polarons em seu famoso artigo de 1937. Fadley e Mannella descobriram que a formação do polaron de Jahn-Teller se dá em um maganito CMR somente depois que ele é aquecido acima da temperatura Curie, o ponto no qual o material deixa de ser magnético.
"Nós mostramos, pela primeira vez, utilizando uma combinação de todas as espectroscopias ALS primárias, que um dos mais estudados manganitos CMR, uma mistura de lantânio, estrôncio, manganês e oxigênio, apresenta a formação de polarons acima de sua temperatura Curie [de cerca de 350 graus Kelvin]," explica Fadley. "A combinação das técnicas ALS que utilizamos mostraram muito mais diretamente do que qualquer outra medição anterior que um elétron tem posição restrita em relação aos átomos magnéticos de manganês, desta forma alterando a resistência elétrica de todo o material."
Manganitos tipicamente contêm quatro ou mais constituintes; o manganês é freqüentemente o único átomo magnético presente. De acordo com as descobertas de Fadley e Mannella, como os manganitos CMR se resfriam até abaixo de sua temperatura Curie, os polarons Jahn-Teller desaparecem, liberando os elétrons aprisionados. A capacidade dos maganitos CMR para conduzir eletricidade é muito diferente, dependendo se o polaron está presente ou não.

Monitorando o movimento dos elétrons em um material spintrônico: óxido de lantânio-estrôncio-manganês:
(Painel da esquerda) Dois elétrons em uma camada interna de um átomo de manganês têm energias ligeiramente diferentes, resultantes das interações de seus spins com o spin do átomo como um todo. Neste gráfico, feito plotando-se a energia dos elétrons expulsos de sua camada pelos fótons de um feixe de energia ALS, suas diferenças de energia a diferentes temperaturas (curvas adjacentes) aparecem no formato de uma trincheira. A diferença aumenta à medida em que a temperatura ultrapassa o ponto Curie (linha azul) e se mantém aumentando até que nenhuma diferença mais esteja aparente (linha vermelha). Quando a temperatura é diminuída, o processo se reverte. A diferença de energia desses elétrons é uma medida direta da força magnética desse átomo, força esta que aumenta significativamente acima do ponto Curie em razão da transferência de um elétron para o átomo de manganês.
(Painel da direita) Enquanto isso, os elétrons na camada orbital mais interior dos átomos de oxigênio do composto passam simultaneamente para um nível de maior energia à medida em que a temperatura é aumentada, confirmando a transferência de carga para o átomo de manganês acima da temperatura Curie. (O lantânio e o estrôncio no composto apresentam comportamentos similares aos do oxigênio.) Esses resultados fornecem uma evidência direta da formação de um polaron: uma distorção na estrutura dos átomos ao redor do átomo de manganês, o qual aprisiona um elétron em sua vizinhança.

Segundo a explicação de Mannella, "Como o átomo de manganês e seus átomos vizinhos de oxigênio são muito mais massivos do que um simples elétron, o polaron se comporta como uma partícula carregada negativamente com uma massa maior e uma mobilidade menor do que um elétron isolado."
Acrescenta Fadley: "Parece claro que, para entender o CMR em maganitos, você terá que levar em conta os efeitos dos polarons. Como aconteceu com a dependência da temperatura para a formação do polaron, esses efeitos são muito maiores do que nós sequer imaginávamos que fossem."



Os experimentos de espectroscopia conduzidos por Fadley e Mannella foram feitos utilizando-se o espectrômetro/difractrômetro de múltiplas técnicas 4.0.2 do laboratório ALS, que gera feixes de raios-X leves polarizados circularmente. Um feixe de luz é circularmente polarizado quando seu campo elétrico gira ao redor da direção na qual o feixe está viajando. A absorção de luz circularmente polarizada por um material magnético revela muito sobre os momentos magnéticos de seus átomos constituintes. Alimentado por um dos magnetos onduladores do laboratório, o feixe de energia 4.0.2 é ideal para se estudar os manganitos e outros materiais de interesse da spintrônica.



O efeito CMR em manganitos é um campo importante de estudos não apenas pelo seu impacto potencial sobre os dispositivos de armazenamento de dados de alta densidade. Alguns materiais CMR conduzem eletricidade por meio de elétrons com somente uma direção de spin (spin é uma propriedade da mecânica quântica, considerada como estando "para cima" ou "para baixo"), ao invés de números iguais de elétrons com as duas direções de spin, como em todos os dispositivos eletrônicos atuais. Isto significa que os manganitos CMR podem ter praticamente 100 por cento de polarização do spin, tornando-os excelentes candidatos para novos componentes lógicos que operem em altíssimas velocidades, tais como transistores spintrônicos e transistores de tunelamento magnético.
"Além das aplicações spintrônicas, nossos resultados poderão também ter implicações para os estados magnéticos dos átomos sob alta pressão, como no núcleo da Terra," afirma Mannella.
Estudos geofísicos têm demonstrado que perovskitas que contêm ferro, materiais óxidos com a mesma estrutura cristalina que os manganitos CMR, podem apresentar uma marcante redução no estado spin dos elétrons de seus átomos de ferro à medida em que eles se movem através do manto da Terra rumo às condições de extrema pressão do núcleo. A partir de um estado inicial de spin elevado, os átomos de ferro decaem para um estado de spin baixo à medida em que a pressão aumenta. Isto leva a uma perda gradual do momento magnético, o qual tem uma significativa influência sobre as propriedades magnética, termoelástica e de transporte do manto profundo. Essa alteração também pode afetar a distribuição de ferro entre os mantos superior e inferior, e entre o manto inferior e o núcleo, com uma possibilidade de maior ocorrência de ferro no manto profundo.
"A relação entre as perovskitas no manto e a pressão é baseado nos mesmos efeitos que nós estamos estudando na tentativa de observar alterações no estado de spin dos metais de transição [magnéticos] como uma função da pressão e da temperatura," afirma Fadley. "Logo, nossos resultados poderão ser úteis para aqueles que estão desenvolvendo um modelo de como o manto realmente é."

Definições de Backup

O que é um Backup?
É uma cópia de dados de importante que se providencia como medida de segurança para o caso de perda de dados importantes.
Qualquer prática de Backup antigamente era visto como muito trabalhoso. Atualmente quando se trata da cópia de dados corporativos, ainda é considerado trabalhoso. Mas para usuários domésticos fazer bakup de dados pessoais é mais fácil, é simplesmente fazer a transferência dos dados em CD, DVD, Pen-drive ou qualquer outro tipo de mídia.
Qual a importância de fazer cópias de segurança?
É importante não só para recuperar dados de uma eventual falha, mas também de qualquer incidente, pois no mundo organizacional as informações também poder ser perdidas e nunca mais recuperadas.
Toda informação deve ser avaliada em relação à sua criticidade e, consequentemente, em relação à necessidade da existência de cópias de segurança.
É importante e fundamental guardar as cópias de segurança em local seguro e distante o suficiente para que, caso aconteça uma situação de destruição dessa informação ( desastre, roubo, ação de má fé, etc) , a cópia de segurança esteja protegida adequadamente.
O mais importante é que sempre exista pelo menos uma cópia de segurança.

Passo-a-passo de como fazer um backup

Como fazer um BACKUP:

Fazendo cópias de backup manualmente no computador

Independentemente da versão do Windows usada, você pode fazer manualmente uma cópia de backup de qualquer arquivo ou pasta seguindo estas etapas:

1. Clique com o botão direito do mouse no arquivo ou pasta de que deseja fazer o backup e, em seguida, clique em Copiar no menu.

2. Agora, em Meu Computador, clique com o botão direito do mouse no disco ou disco rígido externo onde deseja armazenar a cópia de backup e, então, clique em Colar no menu.

Após copiar todas as informações de que deseja fazer um backup no formato de armazenamento escolhido, não esqueça de protegê-lo.

Fazer o backup é apenas o primeiro passo. É preciso que os seus arquivos e informações pessoais importantes estejam disponíveis quando você precisar deles. Aqui estão algumas sugestões para ajudá-lo a protegê-los:

• Mantenha suas informações fora de casa ou do escritório. Mantenha seus backups fora do computador, isto é, em uma outra sala, em um cofre à prova de fogo. Se você usa um cofre seguro para armazenar documentos importantes, guarde seus discos de backup lá também.

• Faça mais de uma cópia. Mantenha os backups em dois locais separados, pois se ocorrer um desastre em uma área, você ainda possui a sua cópia secundária.

• Mantenha o seu backup organizado. Periodicamente (especialmente se você estiver pagando por um serviço de armazenamento), apague arquivos antigos ou compacte as informações de forma que ocupem menos espaço. Você pode obter programas gratuitos de compressão de arquivos de empresas como a WinZip ou a NetZip da Real Networks.

• Proteja suas informações com uma senha. Alguns formatos de mídia incluem proteção por senha. Considere esse recurso se precisar fazer backup de informações pessoais ou confidenciais.

Windows XP Professional: Usar o utilitário de Backup incorporado

Se você usa o Windows XP Professional, pode usar o utilitário de Backup incorporado para copiar arquivos, configurações ou tudo o que estiver no seu computador. Também é possível programá-lo para fazer cópias de backup de determinados arquivos em um intervalo de tempo especificado por você. Veja aqui como começar a usar o utilitário de Backup:

1. Clique em Iniciar e aponte para Todos os Programas.

2. Aponte para Acessórios e, em seguida, para Ferramentas do Sistema.

3. Clique em Backup.
Se for a primeira vez que você usa o utilitário de Backup, a primeira tela exibida será a janela de boas-vindas do Assistente de backup ou restauração. Clique em Avançar e siga as instruções do assistente.

Para fazer o Backup de musicas, fotos, programas os métodos mais simples são copiar para CDs, DVDs, Pen Drive, Discos Externos entre outros.

domingo, 4 de julho de 2010

Time Capsule

Todos sabem que devemos fazer backup, mas isso não ocorre com frequência. Até hoje o desastre era um dos grandes motivadores, mas não precisa ser mais assim, porque com o Time Capsule, a desagradável necessidade de fazer backup deu lugar à proteção automática e constante. E melhor, sem-fio, preservando tudo o que é importante, inclusive a sua sanidade.



Time Capsule vem com um disco rígido de 1TB ou 2TB sem-fio, projetado para operar com Time Machine, Mac OS X Leopard e Snow Leopard. Basta configurar o Time Capsule como o drive de backup do Time Machine e pronto. Dependendo da quantidade de dados, é possível que o primeiro backup com Time Capsule demore a noite toda ou mais. Depois disso, será feito backup somente dos arquivos que forem modificados, e tudo automaticamente, sem fios e em segundo plano. Para que você não tenha mais que se preocupar com backup. E melhor, as novas tecnologias do Time Capsule e aprimoramentos do Time Machine deixam o backup com Time Capsule e Snow Leopard até 60 porcento mais rápido do que antes.



Tem vários computadores Mac em casa? O Time Capsule pode fazer backup e armazenar os arquivos de cada Mac com Leopard e Snow Leopard conectado à sua rede sem fio. Chega de conectar um drive externo em cada Mac para fazer backup. O Time Capsule poupa você desse trabalho.

O Time Capsule é o local ideal para fazer backup de tudo. Seu enorme disco rígido, categoria servidor, de 1TB ou 2TB, tem o espaço e a segurança que você precisa. Independentemente de você ter 250 ou 250 mil músicas para fazer backup, espaço nunca será problema. E considerando que toda essa quantidade de espaço de armazenamento e segurança estão em uma estação base Wi-Fi de alta velocidade.




http://www.apple.com/br

sexta-feira, 2 de julho de 2010

Backup e Restauração


O Backup e Restauração – aprimorado para o Windows 7 – cria cópias de segurança dos seus arquivos pessoais mais importantes, para que você sempre esteja preparado para o pior.

Deixe o Windows escolher o que acrescentar ao backup ou escolha você mesmo pastas, bibliotecas e unidades. O Windows pode fazer o backup dos arquivos no horário que você escolher - basta configurar e ficar tranquilo.

É possível fazer backup em outra unidade ou DVD. E se estiver usando as edições Professional ou Ultimate do Windows 7, você também terá a opção de fazer o backup dos arquivos em uma rede.

quinta-feira, 1 de julho de 2010

Nova forma de armazenamento de informação: 2,5 milhões de livros de 400 páginas num chip.

Investigadores da Universidade da Carolina do Norte, nos Estados Unidos, criaram um chip capaz de armazenar 2,5 milhões de livros de 400 páginas. Esta tecnologia tem por base nanopontos magnéticos que armazenam um bit de informação cada um, permitindo juntar um bilião de páginas de informações num chip que cabe na palma de uma mão.

Estes nanopontos são fabricados com um cristal que cria sensores magnéticos que podem ser integrados diretamente num chip de silício. Medem seis nanômetros de diâmetro e podem ser fabricados de uma forma uniforme, com orientação definida.

Cada nanoponto é um ímã com pólos que podem ser invertidos com a aplicação de um campo magnético externo, permitindo a gravação de dados binários, tal como acontece com os discos rígidos.

Esta investigação, liderada por Jagdish Narayan, demonstrou a viabilidade da fabricação dos nanopontos magnéticos a partir de cristais de níquel, níquel-platina e ferro-platina e comprovou a fiabilidade dos dados magnéticos neles guardados.

Visto que se trata de uma forma de armazenamento totalmente nova, os investigadores ainda não desenvolveram uma técnica capaz de ler este chip. No entanto acreditam que a tecnologia de leitura a laser possa ser a mais adequada para permitir a interação efetiva com os nanopontos, de forma a ler os seus dados com precisão.

segunda-feira, 21 de junho de 2010

O armazenamento dos arquivos será totalmente diferente com as novas memórias!

Prepare-se para conhecer as novas tecnologias que vão revolucionar em tamanho, espaço, estabilidade, energia e velocidade!
O ano era 1954 e a IBM (empresa estadunidense voltada para a área de informática),estava registrando a patente de um componente intitulado “dispositivo de disco” (disk drive). Dois anos depois disso, a empresa lançou um item para armazenamento de dados. Após esses acontecimentos, a indústria da informática levou algumas décadas para chegar ao que conhecemos hoje como disco rígido.
A evolução continuou...
Foi na década de 1990 que os consumidores realmente chegaram a visualizar e ter acesso aos HDs, os quais foram absolutamente necessários e revolucionários para a história dos computadores. No começo os discos rígidos não conseguiam armazenar nem 100 MB, mas o espaço que traziam era mais do que suficiente para os sistemas operacionais da época.
Os processadores evoluíram, os sistemas também e claro que os discos rígidos não ficariam para trás. Aos poucos foram surgindo discos com capacidade de armazenamento de gigabytes, os quais ganharam mais tecnologia e podiam armazenar uma quantidade surpreendente de arquivos. Depois da virada do milênio a informática deu um boom ainda mais forte e fez com que os HDs de centenas de gigabytes aparecessem.



Até aí você já conhece a história e também deve saber que atualmente temos HDs com mais de 1 TB (terabyte) de espaço. A expansão absurda da computação não só fez os discos ganharem implementações, mas também forçou o desenvolvimento de dispositivos portáteis para armazenamento de dados: os famosos pendrives (que utilizam memória flash).
Hoje você pode comprar um pendrive de 4 GB e transportar uma biblioteca com até mil arquivos em MP3. Além disso, quem preferir pode ter acesso às memórias flash em dispositivos multimídia, cartões de memória para utilização em máquinas digitais e ultimamente até em SSD (os discos que possivelmente vão concorrer com os HDs).

Toda essa história é fantástica, mas será que o futuro do armazenamento está limitado à tecnologia das memórias flash? A informática não vai evoluir mais nesse sentido?

FeRAM pode substituir a flash futuramente

Esta memória é muito parecida com aquela utilizada nos pendrives, porém ela tem algumas pequenas diferenças que podem ser cruciais para a utilização no futuro.
As memórias FeRAM, ou memórias ferroelétricas de acesso aleatório, possuem uma série de alterações nos materiais que compõem o setor de armazenamento interno (como a inclusão de cristais ferroelétricos).
Falando em termos técnicos, pode-se dizer que o que muda drasticamente na memória FeRAM é o modo como ocorre a gravação dos dados. Esta memória utiliza energia elétrica para seu funcionamento — assim como a memória Flash —, mas não da mesma maneira que na tecnologia concorrente.
A FeRAM basicamente utiliza cargas para gravar os bits, fator que faz esta memória utilizar capacitores (pequenos componentes eletrônicos) como auxiliares na hora de efetuar alguma tarefa nos cristais — os quais são compostos por material ferroelétrico.
Se você não entendeu o que está escrito no parágrafo acima não se preocupe, pois o funcionamento desta memória não é tão importante quanto saber o que ela realmente vai proporcionar.
A FeRAM tende a ser uma memória que utiliza pouca quantidade de energia, mais rapidez para gravar (escrever) os dados e uma vida útil bem maior do que a memória Flash.
O ponto negativo que mais afeta esta tecnologia é a baixa capacidade de armazenamento, motivo pelo qual ela ainda não está sendo comercializada. Muitas fabricantes estão trabalhando no desenvolvimento das memórias FeRAM, mas a notícia mais recente veio da Toshiba, que anunciou ter conseguido criar uma memória de 128 MB (capaz de armazenar aproximadamente 32 músicas em formato MP3).

Fonte: Divulgação Toshiba

A MRAM é uma possível concorrente
Se você sabe um pouquinho de informática deve estar ciente que a maioria dos componentes do computador utiliza energia elétrica para o funcionamento. O disco rígido é um componente que, apesar de necessitar da energia, ainda utiliza o magnetismo para armazenar os dados. A memória MRAM terá alguma semelhança com os discos rígidos, porém seu tamanho físico será muito menor.

Fonte: Divulgação Everspin

A MRAM tende a ser um “híbrido” entre o HD e a memória Flash, pois ela utilizará magnetismo (tecnologia utilizada nos HDs) aplicado num chip — assim como a memória Flash. Por utilizar a magnetização, a MRAM consegue escrever ou ler os dados em questão de nanosegundos, mas por se tratar de uma técnica de difícil controle, a magnetização afeta com muita facilidade os dados.
Para entender basicamente o funcionamento da MRAM basta utilizar dois ímãs como exemplo. Estas memórias possuem material magnético, os quais sabem se determinado bit vale 1 ou 0 conforme a polarização.
Por exemplo: se você colocar dois ímãs com polos opostos, eles se atraem. Agora se você inverter um deles, eles serão repelidos. Com os dados funciona de maneira parecida, mas é possível identifica e gravar os dados a partir dessa pequena diferença que ocorre na magnetização.
A memória MRAM começou a ser desenvolvida na década de 1990, mas até o momento o melhor protótipo consegue armazenar meros 32 MB (modelo apresentado pela Hitachi). A geração atual desta tecnologia já permite gravar dados em menos de um nanosegundo, assim como acontece com a FeRAM. Ainda não há dados muito precisos quanto ao consumo de energia da MRAM, mas ao menos já é possível saber que a tecnologia é estável e funciona muito bem.

Fonte: TechOn! Japan

A PCRAM está muito próxima da realidade
Um conceito básico da PCRAM, ou PRAM, já existia há uns 30 anos, mas a tecnologia demorou um pouco para engrenar nos laboratórios. A memória de acesso aleatório com mudança de fase (tradução do termo PCRAM) utiliza muita tecnologia eletrônica, porém ela depende de algo totalmente inusitado: calor. Isso mesmo, para gravar dados, a memória PCRAM esquenta o material da qual é feita, permitindo que o chip possa interpretar posteriormente a área gravada como bits de valor 1 ou 0.
O material principal da PCRAM é uma espécie de vidro, o qual pode ser modificado entre as formas cristalina e amorfa. Como já citado, o calor é a técnica que realiza essa mudança na memória e, por ser uma forma simples para escrita dos dados, permite atingir tempos fantásticos para obter ciclos de escrita baixíssimos.
Assim como as tecnologias concorrentes, a PCRAM só não foi lançada ainda por um pequeno problema: não possui um protótipo de alta capacidade. Em 2008 a Intel e uma associada lançaram uma memória PCRAM de 16 MB (com tecnologia de 90 nm), enquanto a Samsung obteve recentemente um progresso maior e mostrou um chip de 512 MB de memória.

Fonte: Divulgação Samsung

Apesar de ser mais rápida, a memória PCRAM talvez não seja liberada tão cedo, porque além do problema de capacidade, ela tem um sério problema com a estabilidade. O calor utilizado para gravar os dados requisita uma quantidade de energia maior e não possibilita um nível aceitável de qualidade.

Nano-RAM – Uma solução com o carbono
A tecnologia das memórias Nano-RAM é baseada na substância mais abundante no mundo: o carbono. Aliando nanotubos de carbono com um eletrodo, esta memória consegue gravar dados apenas utilizando uma pequena tensão aplicada aos componentes. A memória identifica os bits conforme a voltagem utilizada.


Em teoria a Nano-RAM deve ser mais rápida do que a memória Flash para escrever e acessar os dados. Além disso, esta tecnologia não utiliza tanta energia como sua concorrente, fator que faz dela uma ótima alternativa para os dispositivos, pois permitem um aumento significativo no tempo de utilização da bateria.
O ciclo de vida da memória Nano-RAM também é superior ao das memórias Flash, portanto o usuário pode, em teoria, apagar e escrever dados infinitas vezes. O único problema que impede esta memória de dominar o mercado é a capacidade de armazenamento, que até o momento não possui grandes progressos. Segundo relatos da fabricante da NRAM, a Nantero, sua memória possivelmente seja útil para utilização em dispositivos que precisem de velocidade e não grande quantidade para guardar dados.

RRAMA memória de acesso aleatório resistiva é uma nova tecnologia que vem ganhando força com o passar do tempo. Diversas empresas estão trabalhando em soluções para melhorar o funcionamento deste tipo de memória para armazenamento. Utilizando pouca energia e conseguindo velocidades surpreendentes, a RRAM tem chances de ser uma possível concorrente para as memórias Flash, porém até o momento existem outros problemas que as fabricantes enfrentam.
A tecnologia da memória RRAM é semelhante à das memórias PCRAM, porém ela traz algumas diferenças. A gravação dos dados aqui é feita através de uma mudança no material cristalino, o qual tem sua composição alterada conforme reações eletroquímicas são aplicadas. Em tamanho grande tudo funciona maravilhosamente bem, porém quando reduzido à escala nano, fica muito difícil de manter a estabilidade das reações internas.
Ainda não há notícias concretas sobre um protótipo 100% funcional, portanto não é possível saber se as memórias RRAMs terão versões com suporte para grande quantidade de armazenamento. É possível que dentro de pouco tempo a HP lance alguma novidade com esta tecnologia, pois a companhia vem investindo em pesquisa para melhorar as memórias RRAMs. Vale lembrar que a HP lançou em 2008 um protótipo de memória resistiva, o já comentado Memristor (confira o artigo que o Baixaki criou a respeito deste componente).

Fonte: Divulgação HP Labs

A revolução total: Racetrack
Investir em tecnologias similares parece não ser o foco da IBM, que pretende criar uma memória totalmente inovadora. Enquanto todas as demais fabricantes insistem em melhorar o modelo das memórias RAM (Random Access Memory, ou memória de acesso aleatório), a IBM pretende investir numa arquitetura nova, que possibilite a melhor utilização do espaço para armazenar dados.
A memória Racetrack deve seguir o padrão dos discos rígidos convencionais utilizando a magnetização para gravação de dados. Todavia, o método de funcionamento desta tecnologia impressiona muito. Ao contrário dos HDs que utilizam o disco como forma de armazenamento, a memória Racetrack deve utilizar nanofios magnéticos, que são movidos sobre os dispositivos que permitem a leitura e gravação.

Fonte: Divulgação IBM

Segundo o site de desenvolvimento da IBM, a nova tecnologia deve ganhar espaço em mercado graças à sua alta estabilidade, baixo consumo de energia, alta velocidade e capacidade imensa para armazenamento. Sendo assim, esta memória seria perfeita, porém a IBM ainda sofre alguns sérios problemas com a tecnologia, que por sinal não está nem perto da fase final.
Só para efeitos de curiosidade, vale salientar que o modo de funcionamento da Racetrack dependerá muito de alta precisão na utilização da energia elétrica. Além disso, a memória Racetrack deve ser um dispositivo de acesso 3D, ainda que até agora os protótipos não tenham saído do bidimensional. Evidentemente, a pesquisa continua e a fabricante deve anunciar muito em breve avanços desta tecnologia.
Em qual vale apostar?
As tecnologias são muitas, as fabricantes são competentes e os avanços têm sido contínuos, mas até agora não é possível dizer exatamente qual memória deve ser o novo padrão de armazenamento.
Se considerarmos que a memória Flash ainda está evoluindo e vem fazendo muito sucesso com os discos SSD, talvez não seja o momento de pensar numa tecnologia futura — pelo menos nós usuários não precisamos pensar nisso.
As empresas que desenvolvem tecnologia com certeza devem investir na área, afinal a melhoria de componentes é muito importante para o avanço geral da informática. De todas as tecnologias supracitadas, duas ganham uma atenção extra: a PCRAM e a RaceTrack. A PCRAM tem certo destaque por já contar com um protótipo de 512 MB, ou seja, ela está no caminho certo para competir com as memórias atuais.
A RaceTrack ainda está em fase de desenvolvimento e possivelmente vai ficar no laboratório por algum tempo, todavia esta tecnologia pode ter grandes chances no futuro, principalmente por revolucionar com uma nova arquitetura. Obviamente , os consumidores sairão ganhando de qualquer forma, resta saber apenas o que vai compensar mais, pois até o momento todas as opções em desenvolvimento custam muito caro.
Dê sua opinião
O que você pensa sobre esse avanço tecnológico? Você está satisfeito com o que seu HD proporciona? Acha interessante utilizar a tecnologia das memórias Flash para armazenar o seu sistema operacional? Em qual tecnologia você aposta?
Hardware - Inovação – Primeira Memória 128 Megabit FeRAM

A FeRAM ou memória não-volátil, pode ser a próxima grande evolução de memórias a nível de velocidade e consumo de energia.

Recentemente, a Toshiba anunciou a criação de um módulo de memória FeRAM de 128 Megabit com uma capacidade de transmissão de dados de 1.6GB/S. Se imaginarmos um produto com a velocidade da memória RAM actual e o comportamento de um disco rígido, o que iremos obter será a memória FeRAM.

Sendo não-volátil esta armazena dados mesmo após de cortada a sua ligação à corrente eléctrica. Isto torna os discos actuais (HDD ou SSD) em simples objectos arcaicos e obsoletos devido à sua velocidade reduzida.

A FeRAM combina assim as características DRAM com a capacidade das memórias flash de guardar informação mesmo quando desligadas de uma fonte de energia eléctrica, sendo estas características que cada vez mais a tornam interessante face ao seu futuro uso quer ao nível de aparelhos como telemóveis ou computadores portáteis.

Agora digam se não seria engraçado no futuro existir uma consola portátil com este tipo de tecnologia ou mesmo uma consola das ditas “normais”… é só usar a imaginação.

por Filipe Pereira
http://www.gamerstek.com/noticias-5762.php

sábado, 19 de junho de 2010


VÍRUS NOS SUPORTES DE ARMAZENAMENTOS DE DADOS

Os vírus representam um dos maiores problemas para usuários de computador. Consistem em pequenos programas criados para causar algum dano ao computador infectado, seja apagando dados, seja capturando informações, seja alterando o funcionamento normal da máquina. Os usuários dos sistemas operacionais Windows são vítimas quase que exclusivas de vírus, já que os sistemas da Microsoft são largamente usados no mundo todo. "Esses programas maliciosos" receberam o nome vírus porque possuem a característica de se multiplicar facilmente, assim como ocorre com os vírus reais, ou seja, os vírus biológicos. Eles se disseminam ou agem por meio de falhas ou limitações de determinados programas, se espalhando como em uma infecção.


Os disquetes foram os primeiro transmissores de vírus de computador, no fim dos
anos 80, o Vírus Ping-Pong, Vírus Stoned, Vírus Jerusalem e Vírus Sexta-Feira 13
eram disseminados através do disquete. Que contaminava o PC quando inserido na máquina, e após contaminar ele contaminava qualquer outro disquete sem vírus que fosse inserido no driver do PC. Até o surgimento na Internet, o disquete era o único meio de propagação de vírus que existia.
Na época o único meio de proteger um disquete contra vírus era colocar um selo no quadrangular superior ou, no caso dos disquetes de 3"½, ativar a trava de
proteção contra escrita, de forma a impedir que o PC gravasse qualquer coisa no
disquete, fazendo dele um meio de leitura de dados somente, protegendo assim, de vírus.

Hoje em dia quase todo mundo tem um Pendrive. Esse pequeno e útil objeto veio de vez para substituir os famigerados disquetes e, em alguns casos, até CD’s e DVD’s, Atualmente sendo um o meio mais fácil de propagação desses vírus.

Como um pendrive pode “viajar” em vários computadores, os vírus e programas prejudiciais voltaram alguns anos na história e estão se disseminando através de um método parecido com o utilizado em disquetes antigos. Ao inserir o pendrive infectado no computador, é executado automaticamente um programa que instala essas pragas em seu computador, contaminando também outros pendrives que forem conectados à máquina. No caso dos antigos disquetes, o programa malicioso se instalava muitas vezes na área de boot dos disquetes fazendo com que o sistema operacional fosse infectado automaticamente apenas com a inserção e leitura do disco. Como os pendrives geralmente não possuem área de boot, os desocupados conseguiram imaginar (nem precisou de muita imaginação) que um pendrive é detectado automaticamente como uma nova unidade de disco no Windows. Sendo assim, basta o mesmo contenha um arquivo chamado “autorun.inf” para que, ao ser detectado, o Windows automaticamente leia esse arquivo e execute as instruções nele contidas.
Já que é assim, é melhor tomar alguns cuidados para evitar que seu pendrive (ou qualquer outro dispositivo semelhante) sirva de meio de transporte para vírus. Em primeiro lugar, evite inserir seu pendrive em computadores amplamente utilizados. Se inevitável, antes de desconectá-lo da máquina, verifique se há arquivos que você desconhece gravados nele, especialmente executáveis e um arquivo de nome “autorun.inf”. Se os encontrar, apague-os imediatamente.
Além disso, faça uma verificação com um antivírus atualizado em seu pendrive regularmente. Como alguns desses vírus podem fazer com que os dados do pendrive fiquem indisponíveis, também faça backup (cópia de segurança) dos arquivos que armazenar no dispositivo. Também evite emprestar o seu pendrive, pois você nunca sabe onde outras pessoas o utilizarão.


http://www.infodicas.com.br/dicas_tuto/pendrive-com-vrus-saiba-como-se-protegervírus.
http://www.infowester.com/blog/virus-em-pendrive-cada-vez-mais-comum/

sexta-feira, 18 de junho de 2010

Desduplicação está entre prioridades de empresas na América Latina

A tecnologia de desduplicação de dados é hoje uma das prioridades das organizações na América Latina. Foi o que constatou o levantamento State of Data Center, divulgada no início do mês, pela empresa de segurança Symantec.

A desduplicação de dados elimina a redundância de dados, ou seja, se 20 e-mails armazenados contam com anexo igual, por exemplo, só uma cópia do arquivo é armazenada. A tecnologia foi apontada como uma das iniciativas mais importantes de 2010 por 73% das companhias latino-americanas, atrás somente de segurança (83%) e recuperação de desastres (82%).

A pesquisa apontou também que as médias empresas estão na dianteira quando o assunto é adoção de tecnologias inovadoras, como a desduplicação e cloud computing. Tendência que chega nesse segmento a uma taxa de 11 a 17% maior do que as pequenas e grandes.

A empresa abordou ainda perspectivas de recursos humanos e constatou que as companhias têm dificuldades em preencher os quadros profissionais, seja por falta de budget ou de profissionais qualificados. Na América Latina, 90% das empresas pesquisadas continuam com as mesmas vagas do ano passado ou abriram ainda mais posições. No mundo, esse número é de 76%.

http://computerworld.uol.com.br/tecnologia/2010

segunda-feira, 14 de junho de 2010

SSD vs HDD

Vejam as vantagens do SSD sobre o HDD!!!
Bem interessante!!!!
^^

domingo, 13 de junho de 2010

Armazenamento on-line


Backup online oferece um refúgio seguro para todos os seus momentos mais importantes de armazenamento de dados. E com as enormes quantidades de espaço de informação criado e armazenados no computador agora, as opções de armazenamento são uma causa importante de segurança. O armazenamento é seguro e é muito fácil de adequar os recursos às suas necessidades.
Em poucas palavras os seus dados são armazenados com segurança em um serviço de armazenamento remoto para mantê-lo seguro em caso de catástrofes humanas, técnicas e naturais.
Backup on-line é como a rede só que melhor. Com um serviço de armazenamento de web desde que você tenha acesso ao seu computador pessoal de qualquer lugar. Com uma ligação à Internet, poderá utilizar o seu computador pessoal para acessar os arquivos armazenados do trabalho.
O Windows Live Skydrive da Microsoft reserva um espaço de 25GB para cada usuário do Hotmail. O serviço ADrive já consegue um pouco mais, 50GB gratuitos. E pra completar, o site Filebox oferece incríveis 500GB pra cada usuário cadastrado!
Existe ainda o Dropbox. Um serviço multiplataforma de armazenamento e sincronização na Web, "nas nuvens", voltado para as pessoas que desejam 'estocar' seus arquivos de forma segura, e acessá-los onde quer que for. Lançado em setembro de 2008, o programa atingiu a brilhante marca dos 3 milhões de usuários.
O grande diferencial do serviço é ter versões de seu aplicativo para Windows, Linux, Mac OS X e ainda iPhone - este último já possui cerca de 300 mil usuários. As pessoas podem se cadastrar em uma conta gratuita, com direito a 2 GB de armazenamento, ou escolher uma das duas contas pagas. A primeira, que custa 9,99 dólares por mês, oferece 50 GB, já a segunda, de 19,99 dólares, disponibiliza 100 GB. Há nos três tipos de conta a opção de compartilhar determinados arquivos, caso queira.
Uma solução eficaz e segura de armazenamento!

Revolução da Informação

segunda-feira, 7 de junho de 2010

Pequeno Notável

Armazenar e transportar um volume grande de informações ficou mais fácil com o pendrive Data Traveler 310, da Kingston. O DT 310 tem capacidade para armazenar nada menos que 256GB. Isso equivale a 365 CDs, 54 DVDs ou 51 mil imagens. O DT 310 tem garantia de cinco anos e conta com suporte técnico gratuito. O pendrive tem o valor salgadinho de R$3.990.




www.kingston.com/brasil

domingo, 6 de junho de 2010

Uma biblioteca em um chip




Imagine um livro de 400 páginas. Agora imagine não apenas um, mas 2,5 milhões desses livros. Para ajudar, saiba que o acervo bibliográfico da USP (Universidade de São Paulo), que é um dos maiores do mundo, tem pouco mais de dois milhões de livros - e só uma parcela pequena deles tem 400 páginas.
Agora, cientistas acabam de demonstrar uma tecnologia que permite colocar todas as informações desses nossos imaginados 2,5 milhões de livros de 400 páginas dentro de um único chip - e de um chip que caberia na palma da sua mão.


Nanopontos magnéticos


"Nós criamos nanopontos magnéticos que armazenam um bit de informação cada um, permitindo armazenar um bilhão de páginas de informações em um chip de uma polegada quadrada," explica o Dr. Jay Narayan, da Universidade da Carolina do Norte, nos Estados Unidos.
Nanopontos são ímãs incrivelmente pequenos, fabricados com um único cristal extremamente puro, criando sensores magnéticos que podem ser integrados diretamente em um chip de silício.
Esses nanopontos, medindo apenas seis nanômetros de diâmetro cada um, podem ser fabricados de maneira uniforme, com orientação definida.


Níquel, ferro e platina



Como cada nanoponto é um ímã, ele tem polos norte e sul. Esses polos podem ser invertidos com a aplicação de um campo magnético externo, permitindo a gravação de dados binários, exatamente como nos discos rígidos - só que ocupando uma área muito menor, elevando drasticamente a densidade de dados por área.
A equipe do Dr. Narayan demonstrou a viabilidade da fabricação dos nanopontos e a confiabilidade dos dados magnéticos armazenados neles.
A pesquisa demonstrou a possibilidade de fabricação dos nanopontos magnéticos a partir de cristais de níquel, níquel-platina e ferro-platina, crescidos na forma de um filme fino por uma técnica chamada deposição a laser pulsado.


Leitura do chip-biblioteca


Mas, como se trata de uma forma de armazenamento totalmente nova, as "cabeças de leitura" ainda não estão prontas. Este é o próximo passo da pesquisa.
Os cientistas afirmam que a tecnologia de leitura a laser parece ser a mais promissora para permitir a interação efetiva com os nanopontos de forma a ler seus dados com precisão.


Nanopontos


Existem vários tipos de nanopontos, que estão sendo estudados com várias finalidades. A aplicação de cada um depende de sua composição.
Os nanopontos magnéticos têm grande potencial para uso no armazenamento digital de dados, como agora demonstrado pela equipe do Dr. Narayan, garantindo uma densidade de dados que poderá viabilizar o que ele chama de "biblioteca em um chip."
Pesquisadores coreanos estão utilizando nanopontos de ouro para otimizar o rendimento de células solares.
Os nanopontos de ouro também estão sendo pesquisados para uso em pesquisas biomédicas. Ao contrário dos pontos quânticos semicondutores, eles são solúveis em água, podendo ser úteis para o rastreamento de células in vivo.








Conhecendo o Disco Rígido (HD)

Definição: disco rígido ou HD (Hard Disk) - dispositivo de armazenamento de dados mais usado nos computadores.

Características e funcionamento dos HDs

Surgimento

1)Um dos primeiros HDs que se tem notícia é o IBM 305 RAMAC(1956), era capaz de armazenar até 5 MB de dados (um avanço para a época) e possuía dimensões enormes: 14 x 8 polegadas. Seu preço também não era nada convidativo: o 305 RAMAC custava cerca de 30 mil dólares.
2) Ex de HD velho: disco rígido utilizado pelo Metrô de São Paulo em seus primeiros anos:

Definição: disco rígido ou HD (Hard Disk) - dispositivo de armazenamento de dados mais usado nos computadores.

Componentes de um HD

1) caixas são seladas - armazenam os discos. Não têm nem ar internamente, pois não podem conter qualquer tipo de material que possa danificar os discos, já que estes são bastante sensíveis.
2) placa lógica (contém controladora, buffer)
a) Controladora - placa com chips responsáveis por gerencia uma série de itens do HD, como a movimentação dos discos e das cabeças de leitura/gravação (mostradas adiante), o envio e recebimento de dados entre os discos e o computador, e até rotinas de segurança.
b) Buffer - Cabe a ele a tarefa de armazenar pequenas quantidades de dados durante a comunicação com o computador. Como esse chip consegue lidar com os dados de maneira mais rápida que os discos rígidos, ele agiliza o processo de transferência de informações. tamanhos médios de 2 MB e 8 MB.
3) Componentes Internos: Estes são detalhados logo abaixo da imagem:


Características e funcionamento dos HDs


a) Pratos e motor: Os pratos são os discos onde os dados são armazenados. Eles são feitos de alumínio (ou de um tipo de cristal) recoberto por um material magnético e por uma camada de material protetor. Quanto mais trabalhado for o material magnético (ou seja, quanto mais denso), maior é a capacidade de armazenamento do disco. Note que os HDs com grande capacidade contam com mais de um prato, um sobre o outro. Eles ficam posicionados sob um motor responsável por fazê-los girar. Velocidades comuns: 7.200 rpm e 10.000 rpm;

b) Cabeça e braço: os HDs contam com um dispositivo muito pequeno chamado cabeça (bou cabeçote) de leitura e gravação. Trata-se de um item de tamanho reduzido que contém uma bobina que utiliza impulsos magnéticos para manipular as moléculas da superfície do disco, e assim gravar dados. Há uma cabeça para cada lado dos discos. Esse item é localizado na ponta de um dispositivo denominado braço, que tem a função de posicionar os cabeçotes sob a superfície dos pratos. Olhando por cima, tem-se a impressão de que a cabeça de leitura e gravação toca nos discos, mas isso não ocorre. Na verdade, a distância entre ambos é extremamente pequena. A "comunicação" ocorre pelos já citados impulsos magnéticos;

c) Atuador: também chamado de voice coil, o atuador é o responsável por mover o braço sob a superfície dos pratos, e assim permitir que as cabeças façam o seu trabalho. Para que a movimentação ocorra, o atuador contém em seu interior uma bobina que é "induzida" por imãs.

Gravação e leitura de dados

A superfície de gravação dos pratos é composta de materiais sensíveis ao magnetismo (geralmente, óxido de ferro). O cabeçote de leitura e gravação manipula as moléculas desse material através de seus pólos. Para isso, a polaridade das cabeças muda numa freqüência muito alta: quando está positiva, atrai o pólo negativo das moléculas e vice-versa. De acordo com essa polaridade é que são gravados os bits (0 e 1). No processo de leitura de dados, o cabeçote simplesmente "lê" o campo magnético gerado pelas moléculas e gera uma corrente elétrica correspondente, cuja variação é analisada pela controladora do HD para determinar os bits.

Para a "ordenação" dos dados no HD, é utilizado um esquema conhecido como "geometria dos discos". Nele, o disco é "dividido" em cilindros, trilhas e setores:




Ilustração de geometria de disco


Definições:

a) Trilhas: são círculos que começam no centro do disco e vão até a sua borda, como se estivesse um dentro do outro. Essas trilhas são numeradas de dentro para fora, isto é, a trilha que fica mais próxima ao centro é denominada trilha 0, a trilha que vem em seguida é chamada trilha 1 e assim por diante, até chegar à trilha da borda.
b) Setor: Dividisão de tamanho regular da trilha. Possui uma determinada capacidade de armazenamento (geralmente, 512 bytes). É a menor porção endereçavel do disco
c) Cilindro: é a posição das cabeças sobre as mesmas trilhas de seus respectivos discos.
d) Clusters: vários setores (logicamente) contíguos
e) Seeking: movimentação da cabeça de R/W - parte mais lenta da operação.
f) interleaving: forma de org. de setores em trilha onde eles são distribuidos em setores lógicos diferentes.
g) Extents: caso seja necessário + cluster pro msm arq. e estiver disponível me seqüência...
h) Fragmentação - Frag. interna - perda de espaço por não fragmentação do arquivo (setor tem 512kb e o arquivo 300kb)...
i) formatação: preparar os discos para receber dados.
i.1)Física: "divisão" dos discos em trilhas e setores(feito na fábrica)
i.2)Lógica: aplicação de um sistema de arquivos apropriado a cada sistema operacional(FAT, NTFS,Ext3, ReiserFS)

Os HDs são conectados ao computador através de interfaces capazes de transmitir os dados entre um e outro de maneira segura e eficiente. Há várias tecnologias para isso, sendo as mais comuns os padrões IDE, SCSI e, mais recentemente, SATA.

A interface IDE (Intelligent Drive Electronics ou Integrated Drive Electronics) também é conhecida como ATA (Advanced Technology Attachment) ou, ainda, PATA (Parallel Advanced Technology Attachment). Trata-se de um padrão que chegou para valer ao mercado na época da antiga linha de processadores 386.

Como a popularização desse padrão, as placas-mãe passaram a oferecer dois conectores IDE (IDE 0 ou primário e IDE 1 ou secundário), sendo que cada um é capaz de conectar até dois dispositivos. Essa conexão é feita ao HD (e a outros dispositivos compatíveis com a interface) por meio de um cabo flat (flat cable) de 40 vias (foto abaixo). Posteriormente, chegou ao mercado um cabo flat de 80 vias, cujas vias extras servem para evitar a perda de dados causada por ruídos (interferência).

Em relação às interfaces SCSI e SATA, elas possuem matérias exclusivas aqui no InfoWester. Clique nos seguintes links para acessá-las:

- Interface SCSI;
- Interface SATA.
Cabo flat de 40 vias. Note que ele possui dois conectores
Tecnologias ATAPI e EIDE

Na interface IDE, também é possível conectar outros dispositivos, como unidades de CD/DVD e zipdrives. Para que isso ocorra, é utilizado um padrão conhecido como ATAPI (Advanced Technology Attachment Packet Interface), que funciona como uma espécie de extensão para tornar a interface IDE compatível com os dispositivos mencionados. Vale frisar que o próprio computador, através de seu BIOS e/ou do chipset da placa-mãe, reconhece que tipo de aparelho está conectado em suas entradas IDE e utiliza a tecnologia correspondente (ATAPI para unidades de CD/DVD e outros, ATA para discos rígidos).

Como já dito, cada interface IDE de uma placa-mãe pode trabalhar com até dois dispositivos simultaneamente, totalizando quatro. Isso é possível graças a EIDE (Enhanced IDE), uma tecnologia que surgiu para aumentar a velocidade de transmissão de dados dos discos rígidos e, claro, permitir a conexão de dois dispositivos em cada IDE.
Entradas IDE de uma placa-mãe
Conectores IDE em uma placa-mãe

É importante frisar que a tecnologia EIDE tem dois concorrentes de peso: os já mencionados padrões SCSI e SATA. O primeiro é bem mais eficiente, porém muito mais caro. Por esta razão, o padrão SCSI só é usado em aplicações que necessitam de alta performance (como servidores, por exemplo). A tecnologia SATA é que veio para tomar o seu lugar, mas como o padrão IDE está no mercado há muito tempo, demorará para cair completamente em desuso.
Tecnologias DMA e UDMA

Antigamente, somente o processador tinha acesso direto aos dados da memória RAM. Com isso, se qualquer outro componente do computador precisasse de algo na memória, teria que fazer esse acesso por intermédio do processador. Com os HDs não era diferente e, como conseqüência, havia um certo "desperdício" dos recursos de processamento. A solução não demorou muito a aparecer. Foi criada uma tecnologia chamada DMA (Direct Memory Access). Como o próprio nome diz, essa tecnologia tornou possível o acesso direto à memória pelo HD ou pelos dispositivos que usam a interface IDE, sem necessidade do "auxílio" do processador.

Quando o DMA não está em uso, normalmente é usado um esquema de transferência de dados conhecido como modo PIO (Programmed I/O), onde, grossamente falando, o processador executa a transferência de dados entre o HD e a memória RAM. Cada modo PIO existente trabalha com uma taxa distinta de transferência de dados, conforme mostra a seguinte tabela:

Modo PIO Taxa de transferência
Modo 0 3,3 MB/s
Modo 1 5,2 MB/s
Modo 2 8,3 MB/s
Modo 3 11,1 MB/s
Modo 4 16,7 MB/s
Modo 5 20 MB/s


É importante frisar que os HDs IDE mais recentes trabalham com um padrão conhecido como Ultra-DMA (UDMA). Essa tecnologia permite a transferência de dados em uma taxa de, pelo menos, 33,3 MB/s (megabytes por segundo). O padrão UDMA não funciona se somente for suportada pelo HD. É necessário que a placa-mãe também a suporte (através de seu chipset), caso contrário, o HD trabalhará com uma taxa de transferência mais baixa. Veja o porquê: existe 4 tipos básicos de Ultra-DMA: UDMA 33, UDMA 66, UDMA 100 e UDMA 133. Os números nestas siglas representam a quantidade de megabytes transferível por segundo. Assim, o UDMA 33 transmite ao computador dados em até 33 MB/s. O UDMA 66 faz o mesmo em até 66 MB/s, e assim por diante. Agora, para exemplificar, imagine que você instalou um HD UDMA 133 em seu computador. No entanto, a placa-mãe só suporta UDMA de 100 MB/s. Isso não significa que seu HD vai ficar inoperante. O que vai acontecer é que seu computador somente trabalhará com o HD na taxa de transferência de até 100 MB/s e não na taxa de 133 MB/s.

Capacidade real de armazenamento

Os fabricantes de discos rígidos aumentam a capacidade de armazenamento de seus produtos constantemente. Todavia, não é raro uma pessoa comprar um HD e constatar que o dispositivo tem alguns gigabytes a menos do que anunciado. Será que o vendedor lhe enganou? Será que a formatação foi feita de maneira errada? Será que o HD está com algum problema? Na verdade, não.

O que acontece é que os HDs consideram 1 gigabyte com sendo igual a 1000 megabytes, assim como consideram 1 megabyte com sendo igual a 1000 kilobytes, e assim por diante. Os sistemas operacionais, por sua vez, consideram 1 gigabyte como sendo igual a 1024 megabytes, e assim se segue. Por conta dessa diferença, um HD de 80 GB, por exemplo, vai ter, na verdade, 74,53 GB de capacidade ao sistema operacional. Um HD de 200 GB vai ter, por sua vez, 186,26 GB.

Portanto, ao notar essa diferença, não se preocupe, seu disco rígido não está com problemas. Tudo não passa de diferenças entre as empresas envolvidas sobre qual medida utilizar.

HDs externos

É possível encontrar vários tipos de HDs no mercado, desde os conhecidos discos rígidos para uso doméstico (ou seja, para PCs), passando por dispositivos mais sofisticados voltados ao mercado profissional (ou seja, para servidores), chegando aos cada vez mais populares HDs externos.

HD externo IomegaO que é um HD externo? Simplesmente um HD que você levar para cima e para baixo, e conecta ao computador apenas quando precisa. Para isso, pode-se usar, por exemplo, portas USB, FireWire e até SATA externo, tudo depende do modelo que você escolher.

O HD externo é útil para quando se tem grandes quantidades de dados para transportar ou para fazer backup (cópia de segurança de seus arquivos). Do contrário, é preferível utilizar pendrives, DVDs regraváveis ou outro dispositivo de armazenamento com melhor relação custo-benefício. Isso porque os HDs externos são mais caros e costumam ser pesados (exceto os modelos de tamanho reduzido). Além disso, devem ser transportados com cuidado, para evitar danos.

A imagem ao lado mostra um HD externo da empresa Iomega, uma das mais conhecidas fabricantes desse ramo.

sábado, 5 de junho de 2010

Material fotorreversível põe 500 Blu-ray em um único disco

Um grupo de químicos japoneses criou o primeiro material capaz de sofrer uma transição fotorreversível de metal para semicondutor.

Segundo eles, a descoberta terá aplicação direta no armazenamento óptico de dados em ultra-alta densidade, com discos capazes de conter até 500 vezes a densidade de um disco Blu-ray.


Alterar a matéria com luz

Nos últimos anos tem havido um interesse crescente na busca de formas de alterar as propriedades físicas da matéria.

A temperatura e a pressão podem transformar materiais, digamos, de isolantes para condutores ou de não-magnéticos para magnéticos - mas os dois parâmetros são de difícil controle no interior de complexos dispositivos de memória em nanoescala.

Em vista disso, os pesquisadores começaram a procurar por formas de alterar a matéria usando luz - as chamadas transições de fase fotoinduzidas - cujo "estímulo" para a alteração da matéria é dado por um laser.

Recentemente, o laser foi usado para criar magnetismo artificial, para permitir que físicos enxergassem através de materiais opacos, para retorcer estruturas rígidas e até para criar um fenômeno quântico conhecido como transparência induzida por luz.

Transição fotoinduzida

Agora, Shin-ichi Ohkoshi e seus colegas da Universidade de Tóquio produziram o que pode ser a transição fotoinduzida - a passagem de um material de uma fase para outra pela ação da luz - mais prática e mais útil já demonstrada.

Segundo os pesquisadores, a transição de metal para semicondutor satisfaz os três requisitos principais para o armazenamento óptico de dados:

1. ela funciona a temperatura ambiente;
2. o estímulo é dado por luz na faixa do ultravioleta - o que é essencial para as memórias de alta densidade;
3. e a luz necessária para gravar os dados na memória é de baixa potência.

Cristais de titânio

Os pesquisadores usaram um material baseado em nanocristais de pentóxido de titânio (Ti3O5), que eles criaram sinterizando o óxido de titântio (TiO2) com hidrogênio.

Os nanocristais de Ti3O5 estão normalmente em um estado de mínima energia, conhecido como "lambda", no qual o material é um condutor metálico.

No entanto, a irradiação dos nanocristais com luz ultravioleta faz com que eles saltem para um outro nível mínimo de energia, o estado "beta", no qual as cargas ficam deslocalizadas, como em um semicondutor.

Para colocar os nanocristais de volta para o estado lambda, basta irradiá-los novamente com luz ultravioleta de um comprimento de onda um pouco menor.

500 Blu-Ray em um disco

"O que eu acho mais interessante para as potenciais aplicações é o fato de que o material obtido é nanoestruturado - isto é, ele possui intrinsecamente uma resolução muito alta e, portanto, pode ser apropriado para armazenamento de dados de ultra alta densidade," diz Alex Kolobov, um especialista em mudança de fase de materiais do Instituto Nacional de Ciências e Tecnologias Avançadas do Japão.

Na verdade, o grupo de Ohkoshi acredita que um sistema de memória baseado nos novos nanocristais seria capaz de acomodar uma densidade de dados de 1 terabit por polegada quadrada, ou 500 vezes mais do que um disco Blu-ray.

Eles agora estão planejando criar um protótipo de sistema desse tipo usando a luz de "campo próximo" de um microscópio eletrônico de varredura.

http://www.inovacaotecnologica.com.br/noticias

quinta-feira, 3 de junho de 2010

Pioneer apresenta mídia com 500GB de capacidade

Na verdade não é nem DVD, nem Blu-Ray e nem CD, mas é algo usando o mesmo formato, em um disco como se fosse um destes que foram citados, porém com 2 grandes diferenças, uma delas que pode armazenas até 500GB, isso mesmo, até 500GB de dados, e outra, é transparente!

A Pionner, apresentou em uma feira em Tóquio o protótipo deste disco multi-camadas, capaz de armazenas incríveis 500GB, e algo que chama a atenção, além é claro da capacidade, é o fato dele ser transparente. Com essa capacidade esse se equivale a cerca de 20 discos de Blue-Ray, ou a 106 disco de DVD, ou cerca de 714 CDs normais de 700MB, tudo isso em apenas uma mídia. Já imaginou !??

Claro, foi apresentado como protótipo e ainda não tem data definida de produção e muito menos de ser colocado no mercado, mas assim como aconteceu com o lançamento mais recente de disco de alta capacidade, o Blue-Ray, creio que em poucos meses estaremos ouvindo falar muito nessa nova mídia ai, que claro ainda não tem nome definido.

terça-feira, 1 de junho de 2010

Armazenamento de dados na linha do tempo

Ao longo da história da tecnologia, acompanhamos a evolução de diversos dispositivos de armazenamento de dados. Dos robustos e pioneiros discos rígidos da IBM até os leves e compactos HDs externos. Das lendárias fitas magnéticas até as mídias ópticas ultraexpansíveis Blu-rays. Confira a linha do tempo dos principais dispositivos de armazenamento de dados e uma breve descrição da história de cada um.



Fita magnética

Considerada a primeira tecnologia para o armazenamento de dados de computador. O grande avanço aconteceu quando a 3M, em 1972, lançou o modelo de fita cassete com dois rolos. Sofreu diversas modificações, dando origem a outros dispositivos como a fita DAT e a DDS.




Digital Versatle Disc (DVD)

A segunda mídia óptica para o armazenamento de dados de computador chegou ao mercado em 1996, pelas principais fabricantes do mundo como Sony, Philips, Toshiba e a Time-Warner. Os primeiros DVD Players foram lançados, no Japão, em 1997. A capacidade de um DVD é de 4.7 GB, podendo chegar a 8.5 GB, com o formato de dupla camada.




Disco Rígido (HD)

Antes chamada de winchester, a primeira unidade foi construída pela IBM, em 1956. O modelo, que pesava cerca de uma tonelada, era composto por 50 mil setores distribuídos em 50 discos magnéticos, o que totalizava uma capacidade de 5 MB. Hoje é o principal meio de armazenamento em grandes quantidades.




Disquete

Criado em 1967 também pela IBM, o primeiro modelo era o 8-inch (8 polegadas), com uma capacidade de 80 KB. Depois veio o formato de floppy disc de 5,25” (1976) - os famosos discos flexíveis - com até 160 KB. A grande inovação aconteceu em 1979, quando a Sony anunciou os de 3,5 polegadas.





USB Flash Drive

Posteriormente apelidada de pen drive, foi desenvolvida pela IBM e lançada em 2000. O primeiro modelo tinha armazenava 8 MB. Mais compactos, rápidos e resistentes, eles aceleraram o funeral do floppy disc. As portas USB são cada vez mais comuns. O pen drive mais potente é da Kingston, com capacidade para 256 GB em dados.





Cartão de memória

O PC Card (PCMCIA) foi o primeiro cartão de memória distribuído comercialmente nos anos 90, e em seguida outros formatos foram surgindo como o Compact Flash e o Smart Media. O impulso na produção aconteceu quando eletrônicos, como celulares e câmeras digitais, passaram a adotá-los.





Compact Disc (CD)

Lançado pela Philips, no início da década de 80, os CDs trataram de decretar a morte dos disquetes. No atual formato de CD (700 MB) cabem aproximadamente 487 floppies disc de 1.44 MB. A difusão da mídia óptica ocorreu na década de 90, com a popularização dos microcomputadores. Há dois tipos de CDs: o CD-R e o CD-RW.




Blu-ray Disc (BD)

Formato de nova geração capaz de armazenar um volume de dados de alta densidade. A mídia está disponível nos modelos de 25 GB e 50 GB. A Blu-ray Disc Association, grupo responsável pelo desenvolvimento, foi criada pela Sony e Panasonic e veio com a proposta ousada de substituir o DVD. Todos os jogos do PlayStation 3, por exemplo, são em formato Blu-ray.


http://www.folhape.com.br/caderno-informatica