Pesquisar este blog

sábado, 22 de janeiro de 2011

BOEING CRIA APARELHO QUE PREVÊ ÁREAS DE TURBULÊNCIA


Uma nova patente publicada nesta semana, nos Estados Unidos, traz uma boa notícia para aqueles que têm medo de voar. A Boeing desenvolveu um equipamento que detecta áreas de turbulência e envia uma mensagem de alerta para o piloto do avião, assim ele pode evitar as regiões críticas.
Clear Air Turbulence (CAT) é o nome atribuído ao movimento das massas de ar que causam a famosa turbulência nos aviões quando eles estão em altitudes elevadas. Elas se movimentam de forma aleatória e constante, o que dificulta a previsão de onde estarão. Além disso, devido às grandes partículas de água contidas nelas, estas massas de ar não são detectadas pelo radar de clima.
A tecnologia criada pela empresa norte-americana criou uma nova forma de enxergar o problema. Por meio de uma câmera, localizada na parte frontal da aeronave, fotografias são tiradas e comparadas a todo o tempo, possibilitando a percepção de áreas turbulentas quando estiverem próximas.
Porém, nem todos os detalhes sobre esta tecnologia foram divulgados. Ainda é desconhecida a forma como este equipamento funciona à noite, ou durante o tempo nublado, já que ele depende da claridade para capturar as imagens. Especula-se que seja utilizada algo como a radiação infravermelha, já que ela destaca áreas de acordo com a temperatura do objeto. Entretanto, nada foi confirmado até o momento.

sexta-feira, 21 de janeiro de 2011

O QUE É INTELIGÊNCIA ARTIFICIAL?

Inteligência Artificial (IA) é um ramo da ciência da computação que se propõe a elaborar dispositivos que simulem a capacidade humana de raciocinar, perceber, tomar decisões e resolver problemas, enfim, a capacidade de ser inteligente.

Existente há décadas, esta área da ciência é grandemente impulsionada com o rápido desenvolvimento da informática e da computação, permitindo que novos elementos sejam rapidamente agregados à IA.

História
Iniciada dos anos 1940, a pesquisa em torno desta incipiente ciência eram desenvolvidas apenas para procurar encontrar novas funcionalidades para o computador, ainda em projeto. Com o advento da Segunda Guerra Mundial, surgiu também a necessidade de desenvolver a tecnologia para impulsionar a indústria bélica.
Com o passar do tempo, surgem várias linhas de estudo da IA, uma delas é a biológica, que estuda o desenvolvimento de conceitos que pretendiam imitar as redes neurais humanas. Na verdade, é nos anos 60 em que esta ciência recebe a alcunha de Inteligência Artificial e os pesquisadores da linha biológica acreditavam ser possível máquinas realizarem tarefas humanas complexas, como raciocinar.

Depois de um período negro, os estudos sobre redes neurais volta à tona nos anos 1980, mas é nos anos de 1990 que ela tem um grande impulso, consolidando-a verdadeiramente como a base dos estudos da IA.

IA na vida real
Hoje em dia, são várias as aplicações na vida real da Inteligência Artificial: jogos, programas de computador, aplicativos de segurança para sistemas informacionais, robótica (robôs auxiliares), dispositivos para reconhecimentos de escrita a mão e reconhecimento de voz, programas de diagnósticos médicos e muito mais.


IA na ficção
Um tema bastante recorrente em histórias de ficção científica, a Inteligência Artifical está presente em livros, desenhos animados e filmes. Um autor de grande destaque nesta área é o russo Isaac Asimov, autor de histórias de sucesso como O Homem Bicentenário e Eu, Robô.

Ambas receberam adaptação para o cinema. Outra história que caiu nas graças do público foi AI: Inteligência Artificial, dirigido por Steven Spielberg.

Porém, nem tudo são flores na visão daqueles que levam a IA para a ficção. Filmes como 2001: Uma Odisséia no Espaço, dirigido por Stanley Kubrick, Matrix, de Andy e Larry Wachowski, e Exterminador do Futuro, dirigido por James Cameron, mostram como a humanidade pode ser subjugada por máquinas que conseguem pensar como o ser humano e ser mais frias e indiferentes a vida do que seus semelhantes de carne e osso.

A controvérsia




Baseando-se em histórias fictícias como as citadas anteriormente, não é difícil imaginar o caos que poderá ser causado por seres de metal, com um enorme poder físico e de raciocínio, agindo independentemente da vontade humana. Guerras desleais, escravidão e até mesmo a extinção da humanidade estão no rol das conseqüências da IA.


Por outro lado, robôs inteligentes podem ser de grande utilidade na medicina, diminuindo o número de erros médicos, na exploração de outros planetas, no resgate de pessoas soterradas por escombros, além de sistemas inteligentes para resolver cálculos e realizar pesquisas que poderão encontrar cura de doenças.


Como pode ser notado, a Inteligência Artificial é um tema complexo e bastante controverso. São diversos os pontos a favor e contra e cada lado tem razão em suas afirmações. Cabe a nós esperar que, independente dos rumos que os estudos sobre IA tomem, eles sejam guiados pela ética e pelo bom senso.

INTELIGÊNCIA ARTIFICIAL:RECONHECIMENTO DE PADRÕES


Diferente daquilo que você pode vir a acreditar, a Inteligência Artificial (IA) não está limitada a laboratórios de pesquisa e nem é uma função exclusiva de robôs. Na verdade, a IA não é algo tão “sobrenatural” como a maior parte das pessoas pensa, pelo contrário, ela é até relativamente simples.

Um dos ramos da Inteligência Artificial que, embora não seja encontrado com tanta frequencia em ambientes físicos ou estruturas públicas, é mais comum do que pensamos é o de Reconhecimento de Padrões. Você tem exemplos disso todos os dias em seu computador, pois basicamente trata-se de um sistema capaz de organizar informações de acordo com determinados dados.

Sabe o filtro antispam do seu email? Então esse é um exemplo simples de reconhecimento de padrões: baseado no número de destinatários e em configurações previamente aplicadas, seu gerenciador consegue separar determinadas mensagens e classificá-las em outra categoria. E o reconhecimento de rostos em fotos? Este é outro exemplo bem simples. Em outras palavras, você pode encontrá-la tanto em um site como em um leitor de retinas.



O Reconhecimento de Padrões é um subtópico da Aprendizagem de Máquina, a qual, por sua vez, é um subcampo da Inteligência Artificial. A Aprendizagem de Máquina tem por função desenvolver algoritmos e técnicas que permitam a um computador “aprender”, ou seja, melhorar o seu desempenho em determinada tarefa. Algoritmossão como “receitas de bolo”: uma lista de ações que devem ser executadas sequencialmente.
Mas... o que são padrões para um sistema destes?
Um padrão pode ser considerado como um conjunto de características semelhantes. Ele também pode ser a descrição de um problema recorrente para o qual existe uma solução que pode ser reutilizada diversas vezes em situações diferentes.

Em ambos os casos, note que são questões que envolvem uma série de características que se repetem e podem ser devidamente identificadas. Desta forma, elas passam a compor um comportamento rotineiro cuja resolução pode estar disposta de forma constante.
Para que reconhecer padrões?
A Inteligência Artificial utiliza-se do Reconhecimento de Padrões para analisar determinado conjunto de dados (“conjunto de treinamento”) e organizá-los de acordo com padrões. O reconhecimento de padrões visa classificar dados baseados em conhecimento a priori (preliminar ou dedutivo) ou informações estatísticas extraídas de padrões.

Estes padrões a serem classificados normalmente são grupos de medidas ou observações que definem pontos em um espaço multidimensional apropriado. Antes de partir para a análise efetiva, uma etapa de treinamento é realizada: nela o algoritmo de reconhecimento é testado para que seja possível saber se ele encontra os resultados esperados.

Existem dois tipos de reconhecimento: o supervisionado e o não supervisionado, porém ambos entram em ação após a identificação do padrão. O reconhecimento supervisionado utiliza o conjunto de treinamento para classificar os dados obtidos de acordo com as categorias já existentes e nelas organizá-los. Por sua vez, o reconhecimento não supervisionado utiliza o conjunto de treinamento para criar novas categorias, ao invés de simplesmente separar os dados de acordo com as categorias já existentes.

Como o processo é feito?



Quando pensando em seres humanos, reconhecer padrões parece uma tarefa extremamente simples - é necessário apenas uma coleta de informações à qual passa por uma série de comparações chegando a um resultado final. No contexto de Inteligência Artificial, o reconhecimento não é uma tarefa trivial, pois ainda não existe máquina ou programa capaz de igualar-se a capacidade de reconhecimento atingida pelo cérebro humano.

Um sistema completo de reconhecimento de padrões, basicamente é composto por um sensor que obtém observações a serem classificadas ou descritas (filtragem da entrada), cujo objetivo principal é eliminar dados desnecessários ou distorcidos fazendo com que sejam apresentados apenas objetos relevantes para o reconhecimento do que está sendo analisado.





Em seguida, o mecanismo de extração de características entra em ação, efetuando a análise dos dados de entrada de forma a extrair e derivar informações úteis para o processo de reconhecimento. Desta maneira, as informações numéricas ou simbólicas advindas da observação serão registradas.
Por último o trabalho fica ao encargo de um esquema de classificação destes dados, cujos resultados serão categorizados conforme seus padrões. Em outras palavras, o objeto de análise é declarado como pertencente à determinada classe.
Para funcionarem corretamente, estes classificadores não podem ser nem muito generalizados, pois sua classificação será muito vaga e nem muito específicos, pois deixarão de pegar elementos relevantes devido a estarem muito presos a um tipo de constante.

Algumas aplicações




Esse processo é um pouco mais simples do que parece. Por exemplo, você sabe como seu rosto é reconhecido em uma foto? Primeiro, o classificador procura por dados presentes em faces humanas (dois olhos, um nariz, uma boca, etc.). Em seguida, ele procura simetria e proporções para ter certeza de que ele é humano (distância entre olhos, queixo com relação ao nariz ou a boca, por exemplo).

Ao final, se todas estas características coincidirem com o que ele tem em seu conhecimento como sendo um rosto, ele confirma este padrão e seleciona na tela. E também é por isso que algumas vezes os rostos não são reconhecidos, o classificador tinha informações para buscar determinados objetos que acabam por não aparecer (como em uma foto de perfil e um pouco mais distante, por exemplo).

Para se fazer um reconhecimento de voz (ou som), primeiramente é feita a digitalização da fala que se quer reconhecer. Então, efetua-se uma computação das características que representam o domínio espectral (frequências) contido na voz. Em seguida, utiliza-se o classificador para buscar um conjunto de características dentro dos dados fonéticos analisados. Por último é aplicado um método de busca para associar as saídas com padrões de palavras (ou determinado ruído) a fim de encontrar semelhanças.



Outro exemplo mais simples e comum desse processo é a leitura do código de barras de uma embalagem feita por uma atendente de supermercado: a máquina captura os dados do código, compara com os padrões do banco de dados e, então, exibe a informação referente ao código na tela do monitor.
O Reconhecimento de Padrões (RP) pode também ser usado pela Biometria para identificar criminosos no meio da multidão, desbloquear um computador através de comandos de voz, ou mesmo substituir o uso de cartões em caixas automáticos pela leitura de retinas. Entretanto, não é somente usando dados do mundo físico que a IA utiliza o RP: ela também pode utilizar um banco de dados local. Algo parecido é usado pelos cientistas que estudam o genoma humano, pois através de diversas comparações eles são capazes de descobrir a função de genes até então incógnitos.

O QUE É UM OVERCLOCK?


"Gostaria de saber do famoso Overclock, o que é, os riscos, se é válido, etc., pois vejo em muitos fóruns o pessoal falando sobre isso, e muitos o fazem.
Renan Graziano
"

O mercado de componentes para computador é bastante agitado, e o avanço tecnológico, cada vez maior, garante que a cada ano dezenas de novas opções surgem, vencendo os limites de desempenho vigentes. Porém, esse suposto limite não é tão forte quanto parece, e pode ser superado. Para quebrar estas fronteiras, existe a técnica do overclock.

O overclock é, basicamente, um processo no qual a velocidade de componentes específicos de um computador pessoal são manualmente aumentadas, através de configurações e instruções diretas para o hardware. A melhora de desempenho que é atingida após o processo pode variar, mas entusiastas conseguem fazer componentes antigos funcionarem como os últimos lançamentos, assim como fazem as peças mais modernas superarem os limites da tecnologia atual.

O foco principal dos usuários que fazem overclock em seus PCs é no processador, na memória, no chipset da placa-mãe e na placa de vídeo. Cada um destes componentes tem um grau de sensibilidade diferente, e os efeitos máximos possíveis em cada peça de hardware variam, conforme parâmetros específicos de cada uma das peças, a respeito de tolerância a altas tensões, refrigeração e outros atributos estruturais.
Uma técnica perigosa


Estes fatores são cruciais no processo de overclock. Um usuário que não tem um bom conhecimento a respeito de seu hardware pode acabar danificando gravemente seu equipamento. Parâmetros que podem ser alterados no processo envolvem taxas de transferência de dados, multiplicadores de CPU e a velocidade do FSB (Front Side Bus) da placa mãe, entre outros.

Os danos que podem ser causados pelo processo podem ser graves a ponto de inutilizar uma peça de hardware. Alterações na voltagem de componentes são particularmente perigosas, pois podem causar danos físicos graves no equipamento, caso as tensões configuradas sejam maiores do que aquelas suportadas pela estrutura. Por isso, o usuário deve estar completamente ciente dos limites de overclock que seu equipamento suporta.


Obviamente, estes riscos são compensados pelas vantagens proporcionadas pelo overclock. O usuário precisa saber muito bem as capacidades de seu hardware, e este tipo de estudo pode acabar criando um interesse grande a respeito de tópicos avançados de computação e engenharia de hardware. O aprendizado em potencial a respeito destes assuntos é, ao mesmo tempo, uma necessidade e uma recompensa pelo interesse em overclock.

Outra vantagem é o fato de que as despesas em hardware podem ser diminuídas, ao comprar uma peça mais fraca e elevá-la às capacidades dos componentes mais modernos do mercado. Porém, esta diferença de preço pode acabar sendo gasta em equipamento de refrigeração e outras ferramentas específicas para overclock. Cabe ao usuário ter bom senso a respeito de suas finanças neste tipo de procedimento.


Um verdadeiro hobby


Qualquer usuário que já tenha navegado em um fórum de hardware também deve ter notado que existe uma comunidade muito grande de “overclockers” ao redor do mundo. Competições são freqüentemente realizadas, nas quais os competidores tentam levar seus computadores muito além de seus limites, recorrendo até mesmo a técnicas absurdas de refrigeração, como nitrogênio líquido. Isso demonstra que o overclock pode assumir até mesmo um aspecto de hobby, uma espécie de esporte, que, graças aos riscos estruturais para o hardware, pode ser considerado “radical”.


As desvantagens, conforme dito, são principalmente aquelas relativas à estrutura do hardware. Operar em níveis muito mais altos do que aqueles recomendados pelos desenvolvedores pode diminuir a vida útil de componentes, e danos relacionados a overclock geralmente não são cobertos por garantias fornecidas por fabricantes ou revendedores. Além disso, os sistemas de refrigeração, caso sejam baseados em ventoinhas, podem incomodar pelo ruído constante.

Os riscos de overclock são indiscutíveis, assim como as possíveis vantagens. Usuários que descobrem este mundo geralmente se empolgam e tornam-se fãs da técnica, mas, caso você se interesse, saiba que não é algo para os fracos de coração. É um mundo que exige conhecimento, paciência, habilidade e muita vontade de aprender e desafiar os limites físicos de seu equipamento, por mais arriscado que isto possa ser.

MITSUBISHI EXIBE TELEVISOR DE 92" DURANTE AS CES 2011


Um modelo de 92” é o grande destaque da Mitsubishi para a CES 2011. Ela aumenta a série 3D Home Cinema, que já contava com modelos de 60”, 65”, 73” e 82”. “Nosso foco é replicar a experiência cinematográfica 3D do cinema em casa”, afirma Max Wasinger, vice-presidente executivo de vendas e marketing da fabricante.

A 3D Home Cinema TV de 92” não é só tamanho. Ela tem transmissor 3D próprio, StreamTV para internet, tecnologia IST (Immersive Sound Technology) para vários falantes, streaming de áudio via Bluetooth, 4 entradas HDMI, player USB, modo de calibragem avançado, controle remoto universal e tela com contraste New Clear.

Também na CES 2011, a Mitsubishi exibiu o seu primeiro sistema de projeção para Home Theater Full HD 3D de 1080p, cujo alvo são consumidores com Home Theater dedicado ou salas de exibição e um desejo por imagens 3D de alta definição maiores que 100 polegadas.

Outros destaques da empresa são um display OLED de 155” e a impressora Mini Photo Album Printer, capaz de criar e imprimir álbuns de imagens na hora.

LG APRESENTA MOUSE COM SCANNER


Durante a CES 2011 a LG apresentou o LSM-100, um mouse que também é capaz de escanear as informações de que você precisa. A parte de baixo do periférico possui uma película equipada com cinco iluminações LED, para que a câmera copie a imagem refletida no espelho interno.

Para iniciar o scanner, basta clicar no botão lateral do mouse (que funciona em Windows ou em Macs) e passear com o aparelho pela imagem. Ele ativa o software e mostra a área a ser escaneada, trazendo-a para a tela do computador.

Graças a dois lasers localizados na parte de cima e de baixo do LSM-100, você é capaz de rotacionar o mouse em qualquer direção que ele irá capturar de forma correta a imagem de uma fotografia ou um texto qualquer, que pode ser modificado em um editor de sua preferência.

O software que acompanha o aparelho também permite edições básicas, que melhoram a captura do scanner. O mouse salva as imagens em formatos JPEG, TIFF, PDF e PNG, que podem ser exportados para as redes sociais.
Mas como não apenas de scanner vive um usuário, o mouse também pode ser usado regularmente, e traz botão scroll e botões direto, esquerdo e central. Ainda não há informações sobre preço e datas para venda para os usuários.

CONHEÇA O Xoom, O NOVO TABLET DA MOTOROLA


Equipado com o Android Honeycomb 3.0, o tablet Motorola Xoom foi anunciado pela Motorola na CES 2011 e já pode ser considerado um dos destaques da marca para essa edição da feira. Confira as principais características do novo aparelho:
  • Sistema operacional Android 3.0 Honeycomb
  • Memória RAM de 1GB DDR2
  • Espaço de 32GB onboard e suporte a cartão SD
  • Tela de 10.1 polegada com resolução de 1280x800
  • Suporte a alta definição 1080p
  • Processador Dual-Core Tegra 2 NVIDIA de 1 GHz
  • Conectividade 3G, 4G e Wi-Fi
  • Câmera de 5 MP com flash LED
  • Bateria com duração de 10 horas durante apresentações de vídeo
  • Dimensões de 24.9 x 16.7 x 1.2 em 730g
Além do tablet em si, a empresa ainda lançou vários periféricos para o aparelho, que o tornam ainda mais interessante para quem procura por outras opções além do iPad. Dentre as novidades, o Xoom pode ser equipado com um dock munido de dois alto falantes HD para conversar com amigos e assistir a filmes, além do “Standard Dock”, que recarrega o tablet e o mantém em uma posição confortável para visualização.

O interessado pode também adquirir o teclado Bluetooth (que também funciona em seu celular Android) e um case que pode ser adquido tanto em couro quanto em material mais resistente.
Não foram divulgados ainda o valor do tablet e nem quanto custará cada acessório. A data prevista para lançamento (nos EUA) é no primeiro quadrimestre deste ano, ou seja, atá o final de abril.














KINGSTON APOIARÁ CAMPEONATO DE OVERCLOCK NA CAMPUS PARTY

A Kingston Technology, maior fabricante mundial independente de produtos de memória, apoiará o campeonato de Overclock que acontecerá no estande da AMD, na Campus Party entre os dias 20, 21 e 22 de janeiro, em São Paulo.
A Kingston fornecerá as memórias Hyper X para overclocking e SSDs que serão usadas nas máquinas da competição. Além disso, a dupla vencedora será premiada com um kit de memória HyperX também cedido pela Kingston.
O campeonato contará com a presença do príncipe do overclock, Ronaldo Buassali e poderá ser acompanhado ao vivo pela internet. Atualmente, Buassali é considerado um verdadeiro herói no seu ramo de atuação e se tornou referência do país depois de ter chegado entre os 10 melhores overclockers do mundo e ter participado de várias competições internacionais, inclusive com vitórias. Na última edição da Campus Party, o príncipe quebrou dois records mundiais e um sul-americano.
Overclocking é o nome do processo de forçar componentes de um computador (processador, memórias e placas gráficas) a trabalharem em maiores frequências. Isso pode ser realizado em muitos níveis, o que faz com que essa arte seja muito divulgada e praticada.

TABLETS PODE TER PREÇOS E IMPOSTOS REDUZIDOS

O ministro das Comunicações Paulo Bernardo anunciou ontem, em entrevista coletiva na Campus Party Brasil 2011, que pretende colocar em discussão a proposta de conceder aos tablets os mesmos benefícios fiscais dados a computadores pessoais e notebooks.
Bernardo sinalizou que deve discutir a proposta com o ministro do Desenvolvimento, Indústria e Comercio Exterior, Fernando Pimentel, visando uma revisão na política industrial para que os tablets sejam reclassificados e, com isso, possam receber os benefícios.
“Conversei com alguns representantes da indústria e eles me disseram que se o governo der aos tablets o mesmo tratamento dado ao notebooks e computadores será possível baratear e produzir tablets no país, em condições muito melhores” explicou.
Segundo informações apresentadas pelo presidente da Telefônica, Antonio Carlos Valente, durante debate na Campus Party Brasil 2011, no ano passado foram vendidos cerca de 15 milhões de computadores no Brasil, um número recorde que foi possível graças a redução de uma série de impostos.
Pesquisas realizadas no mês de dezembro apontaram que os tablets vendidos no Brasil estão entre os mais caros do mundo. No Brasil, apenas dois modelos são comercializados: o iPad, da Apple, e o Galaxy Tab, da Samsung. A expectativa é que para 2011 novas marcas entrem no mercado nacional. No início de janeiro a presidente Dilma Rousseff também se mostrou favorável a popularização do preço dos tablets.

quinta-feira, 20 de janeiro de 2011

CARTÕES SD COM O TRIPLO DA VELOCIDADE


A SD Card Association acaba de anunciar o novo padrão para seus cartões de memória, o Ultra High Speed II (UHS-II). A associação, formada pelas empresas Matsushita, SanDisk e Toshiba, anunciou que, com o novo padrão, foram capazes de triplicar a velocidade de transferência de dados do cartão, que agora podem chegar a 312 MB/s.

A interface USH-II exige a adição de uma nova fileira de pinos nos cartões, mas essa modificação não quebrará a compatibilidade com os slots já existentes. De acordo com a associação, os novos cartões serão totalmente compatíveis com os dispositivos e leitores que já aderiram ao padrão anterior, o UHS-I, lançado no ano passado.

A nova velocidade deve agradar principalmente aos fotógrafos profissionais, que agora poderão contar com mais velocidade durante a gravação das imagens. Além disso, a UHS-II faz parte da especificação SD 4.00, que será disponibilizada ainda neste trimestre.



Cartões SD e os livros digitais


Outra novidade da SD Association está relacionada com o crescente mercado dos livros digitais, ou e-books, como são normalmente chamados. A nova aplicação lançada pela associação pretende “transformar bilhões de celulares e dispositivos equipados com leitores de cartões SD em e-readers” de acordo com Norm Frentz, diretor da associação.

Essa aplicação deve permitir que editores e leitores se beneficiem com livros digitais coloridos e repletos de ilustrações, como graphic novels, por exemplo, possibilitando que os consumidores criem suas próprias bibliotecas digitais dentro de seus cartões e as visualizem em outros dispositivos com suporte para SD.

Frentz afirmou que a "SD continua a se desenvolver para prestar suporte a uma demanda de consumidores interessados em filmes, transmissão de canais de TV, vídeos em alta definição e, agora, livros coloridos". Além disso, Frentz informa que a associação tem o plano de dobrar a velocidade da taxa de transferência de seus cartões no próximo ano.

NIC.br EXPLICA MUDANÇAS QUE VIRÃO NA WEB COM IMPLANTAÇÃO DO IPv6


A internet como conhecemos está prestes a acabar. Mas calma, não há motivo algum para pânico e, graças ao IPv6, a expansão da rede está garantida por muitos anos. Essas são algumas das informações passadas pela NIC.br - Núcleo de Informação e Coordenação do Ponto BR - em palestras realizadas durante a Campus Party Brasil 2011.



Além de estar na programação oficial do evento, durante toda a semana no estande do Núcleo, localizado no Campus Expo, uma série de palestras sobre temas variados estão sendo realizadas de hora em hora, dando para os visitantes uma visão geral do funcionamento do serviço no Brasil.

Entendendo o IPv6

O ano de 2011 deve marcar o fime do protocolo IPv4, utilizado na internet praticamente desde o seu surgimento, na década de 80. A implantação do IPv6 é inevitável e, embora não exista uma data específica para a troca da tecnologia, ambos continuarão funcionando em conjunto, pelo menos a curto prazo.

O IPv6 disponibiliza 128 bits para um endereço URL, enquanto o IPv4 utilizado atualmente se limita a 32 bits. Essa mudança permitirá ampliar o número de endereços disponíveis em centenas de milhares. O número exato é de 18.446.744.073.709.551.616 redes diferentes.

Mais novidades

Outras novidades do IPv6 incluem melhorias no cabeçalho das páginas, fragmentação de pacotes apenas nas pontas, dispensa do uso de NAT (Network Address Translation), suporte obrigatório ao IPSEC, configuração automática, manual ou via DHCP e tamanho mínimo para uma rede local de /64.
As novas configurações resultam em um funcionamento mais simples de aplicativos voIP, conexão de veículos, câmeras de vigilância, eletrodomésticos além de sensores diversos e novas aplicações que podem ser criadas.
Alguns sites como o YouTube já estão operando sob o novo protocolo. Quem quiser saber mais informações sobre o assunto pode acessar o site www.ipv6.br. Lá, é possível encontrar ainda dicas sobre configurações de servidores e características mais detalhadas dessa mudança.

VEJA COMO SÃO PRODUZIDOS OS CARTÕES DE MEMÓRIA

Os cartões de memória são dispositivos baseados em memória flash para o armazenamento de dados. Estes aparelhos não precisam de alimentação (energia elétrica) para manter as informações salvas e permitem que os usuários sobrescrevam os dados sem qualquer dificuldade.
Outrora, quem imaginaria que gadgets tão pequenos poderiam armazenar e transportar tantos dados? A praticidade e a eficiência com que os cartões de memória salvam os arquivos tornou esta tecnologia um acessório indispensável. Seja para carregar músicas, vídeos, imagens ou documentos, lá está um pendrive ou cartão microSD.
Isso tudo já pode ser considerado senso comum. Mas você faz ideia de como estes dispositivos são produzidos? Quais os mecanismos são necessários para criar estes gadgets tão importantes no nosso cotidiano? E que padrões de qualidade são adotados? O Baixaki pesquisou e explica para seus leitores o processo de fabricação dos cartões de memória.

A linha de produção

Já pudemos perceber que montar um cartão de memória não é uma atividade para empresas de fundo de quintal. Chegou a hora de conhecermos mais a fundo como ocorre a fabricação de cartões microSD e pendrives.

1ª etapa: O primeiro componente a ser produzido é o chip de memória. Este item será responsável pelo armazenamento dos dados, ou seja, é a parte fundamental do cartão – por isso a atenção com os processos e a limpeza dos locais de montagem é extremamente importante. No caso da empresa do vídeo, as pastilhas são produzidas na fábrica de Utah.

2ª etapa: Depois de ter passado por mais de 800 processos, no exemplo da Lexar, as pastilhas com vários chips de memória são encaminhadas para a fábrica localizada na Ásia. Nesta etapa, os chips de memória são destacados das pastilhas e sobrepostos em PCIs (placa de circuito impresso).

3ª etapa: A fixação dos componentes dos cartões de memória é feita com uma linha de ouro que possui a espessura de um fio de cabelo humano.

4ª etapa: O dispositivo do cartão que permite o armazenamento e a transferência de dados está pronto. O próximo passo é inserir os chips dentro da carcaça da memória microSD ou do pendrive, por exemplo.

5ª etapa: Chegou o segundo momento crucial do processo de produção: os testes de funcionamento. Para verificar se os produtos não apresentam imperfeições, são aplicados métodos rigorosos para averiguar a velocidade na transmissão de dados e a durabilidade dos dispositivos, inclusive passando por inspeções manuais para assegurar a máxima qualidade.

6ª etapa: Informações únicas dos dispositivos, como número de série, marcação de lote, entre outras, são gravadas nas carcaças por meio de pistolas dotadas de raio laser.

7ª etapa: Em seguida, os cartões de memória passam pelo setor de etiquetagem e embalagem, onde serão devidamente identificados e organizados dentro das caixas.

8ª etapa: A próxima parada dos cartões de memória é na área da empresa responsável pela distribuição dos equipamentos para os quatro cantos do planeta.

9ª etapa: Finalmente, os pendrives e as memórias micro SD ganham as prateleiras das lojas. O ponto final dos dispositivos é na sua mão ou conectado ao seu gadget.

Achou que era fácil?

Ao ver dispositivos tão pequenos disponíveis no mercado, como pendrives que possuem menos de três centímetros de comprimento, não imaginamos o processo complexo e longo pelo qual eles passam para chegar aos nossos computadores, câmeras digitais, video games e aparelhos de som.