quarta-feira, 26 de dezembro de 2007

1ª Estrela Windows 2003 Server

Ontem depois de uma noite de natal muito boa com minha família e amigos obtive minha 1ª estrela em Windows 2003 Server.

Rumo a 2ª Estrela...

domingo, 23 de dezembro de 2007

TechNet Experience On-Line Windows 2008 Server

É o canal onde todo o conhecimento técnico específico é demostrado na prática. Um espaço onde você ganha experiência sobre os mais variados temas sem sair de casa ou do escritório.
Uma boa maneira para você, profissional de TI, acompanhar todas as etapas sobre os temas de seu total interesse, através de apresentações e demostrações de especialistas escolhidos pela Microsoft, e conseguir uma evolução profissional através da atualização do conhecimento e certificação.

Acesse aqui o site!

Eu já fiz a minha primeira prova!


Vamos todos fazer!!!!


Profissional Cinco Estrela


O programa Profissional 5 estrelas tem por objetivo identificar o nível de conhecimento dos participantes da comunidade TechNet através de estrelas adquiridas dentro do site. A cada etapa o profissional tem a capacidade de adquirir uma nova estrela e passar para um novo nível. Um ranking estará apresentando a lista dos profissionais em cada um dos níveis, permitindo a você utilizar em seu currículo o seu nível de estrelas no programa.


Acesse aqui o site do Profissional Cinco Estrelas!




O primeiro produto abordado é o Windows Server 2003. Utilizando recursos do próprio site e documentação disponível para download, além das provas de certificações oficiais Microsoft, você se tornará um Profissional 5 Estrelas!

A segunda categoria do programa aborda uma das mais importantes questões atuais em TI - a Segurança. Utilizando recursos do próprio site e documentação disponível para download, além das provas de certificações oficiais Microsoft, você se tornará um Profissional 5 Estrelas!


quarta-feira, 19 de dezembro de 2007

Visita a Microsoft - PE

O convite foi dado aos finalistas do Programa Student to Business - PE (2007.2) - S2B é uma iniciativa da Microsoft, através dos Centros de Inovação no Brasil, da parceria com diversas instituições de ensino e com a IAMCP - International Association of Microsoft Certified Partners.

Edf.: Porto Digital (Microsoft - PE 12ª)

Eu na entrada da Microsoft - PE (Muito massa)

Corredor Microsoft - PE (Bem ao estilo marketing Microsoft).

Vinicius Perrott

Estudante de SI

quarta-feira, 24 de outubro de 2007

Novos produtos exploram conceito de virtualização

Publicado em 24.10.2007

A Microsoft aproveitou o Intel Business Forum para falar do seu Windows Server 2008, conhecido pelo codinome Longhorn, a ser lançado mundialmente em fevereiro de 2008. De acordo com o Gerente do Produto Windows Server no Brasil, Alexandre Moraes, o novo sistema operacional tem como principal objetivo a virtualização de servidores. “Achamos que um servidor deve virtualizar outros servidores também”, diz.

Segundo Moraes, o Longhorn chega no momento em que o mundo da tecnologia tem na virtualização uma opção econômica. “É mais interessante investir em um servidor potente, que possa virtualizar várias máquinas. Porque os cem servidores que antigamente eram colocados dentro de um datacenter hoje são colocados em um único equipamento”, diz.
Ainda de acordo com Moraes, o Longhorn permite que cada máquina virtualizada seja totalmente independente e isolada, cada uma com seus próprios aplicativos e protocolos de segurança. O Server 2008 conta ainda com um sistema de backup automático, que copia todas as operações em trânsito nas máquinas virtualizadas, sendo capaz de recuperá-las caso haja pane no sistema.

Também na onda da virtualização, a Intel demonstrou suas plataformas V-Pro e C-Pro de gerenciamento de servidores a distância. A tecnologia permite que o administrador de rede seja capaz de manipular, diagnosticar e até corrigir falhas remotamente e mesmo em computadores que estejam desligados.

O segredo está em uma pequena pastilha de mermória Flash integrada à placa-mãe dos desktops V-Pro e dos notebooks C-Pro. A memória permite que o administrador acesse e até ligue a máquina, que precisa apenas estar com os cabos de força e de rede plugados. Mesmo com o computador desligado, é possível obter uma imagem completa do hardware e software instalados, além de diagnósticos, correções e até a instalação de sistemas operacionais completos. (J.W.)

» viajou a convite da Intel
Matéria retirada do JC Online

sexta-feira, 31 de agosto de 2007

Visão Geral e Road Map da Estratégia de Virtualização da Microsoft

Um WebCast sobre virtualização!

Será dia 10/09/2007 (segunda-feira)
Estarei participando!

Escreva você também, e confira o que a Microsoft tem de tecnologia para nos oferecer.

Visão Geral do Evento
Descubra o que a Microsoft oferece agora e planeja para o futuro com virtualização. Este webcast começa com uma breve análise de tecnologias de virtualização anteriores da Microsoft, e em seguida apresenta futuras soluções de virtualização incluindo o Microsoft Virtual Server 2005 R2 Service Pack 1 (SP1), e a tecnologia de Hypervisor do Windows Server 2008.

Inscreva-se aqui!

quinta-feira, 23 de agosto de 2007

Serviços de virtualização crescem 112% até 2011

Pesquisa da IDC ressalta que o mercado de serviços de virtualização deve atingir 11,7 bilhões de dólares até o ano de 2011, impulsionado por suporte, treinamentos e implementação.

Por COMPUTERWORLD
11 de julho de 2007 - 19h46
O mercado de serviços de virtualização deve atingir 11,7 bilhões de dólares até o ano de 2011, suportado pelas oportunidades crescentes para as empresas de implementação e suporte para essa tecnologia em expansão.Isso é o que aponta uma pesquisa recente da IDC, ressaltando que o crescimento deve ser de 112,7% sobre o montante registrado em 2006.De acordo com a consultoria, as demandas por serviços dessa natureza devem crescer de forma expressiva especialmente em virtude da necessidade de os data centers de endereçarem questões como energia, resfriamento e ampliação de capacidade.“Atualmente, a maioria das oportunidades em serviços está em implementações iniciais de virtualização. No entanto, nos próximos anos, consultorias de TI e integradores de sistemas começarão a ver demandas mais avançadas”, comenta Matt Healey, analista sênior de pesquisa IDC. Alguns outros aspectos significativos da pesquisa apontam para crescimento de virtualização dos servidores x86 e x64 nos próximos quatro anos. Além disso, empresas de TI verão demandas crescentes em suporte, educação e treinamento sobre as tecnologias virtualizadas.

Cinco dicas para começar a trabalhar com virtualização

A internet e o Second Live são exemplos de como o mundo virtual invade as empresas. A próxima dominação do mundo real é a virtualização de equipamentos.

Por COMPUTERWORLD
04 de abril de 2007 - 07h00
A virtualização – o movimento de migração do hardware real para o virtual – é um das próximas grandes tendências em TI. Existem mais opções de virtualização para os departamentos de TI do que nunca, incluindo desde aplicações de código aberto da Xen e da Virtual Iron, até a decolagem do Virtual Server da Microsoft e produtos da VMware.

Mas se você é novo nisso, pode não saber como ser apresentado ao tema. Nesta reportagem, romperemos uma recomendação corrente para avaliar se a virtualização é boa para você e, se for, como fazer as coisas acontecerem. Outros recursos de informação incluem um tutorial da VMware que explica a virtualização em termos leigos e um fabricante neutro no Wikipedia.

1. Determine se você tem servidores maduros para consolidação.
Consolidação de hardware é a razão número um para uma empresa considerar a virtualização. Hardware antigos, data centers esgotados, crescentes demandas por energia - todos esses fatores fazem parte dos fatores fundamentais para o aumento da virtualização. Por que você deveria continuar adquirindo máquinas físicas distintas quando você pode mover servidores reais por máquinas virtuais até dez vezes mais potentes?
O primeiro passo para a virtualização é determinar se você tem o tipo certo de infra-estrutura para suportar isso. Se você tem muitas máquinas desempenhando atividades semelhantes, elas podem servir para a virtualização. Você também deveria ter certeza de ter um número apropriado de servidores para fazer a migração – 10 máquinas ou menos e o retorno do investimento começa a ser questionável. Na medida que você migra mais de 10 potenciais servidores, entretanto, os benefícios começam a se acumular.

2. Tire as dores de cabeça administrativas do seu caminho.
Qualquer mudança de porte, como consolidação de servidores, afeta alguns processos internos da corporação. Como em qualquer projeto, é importante obter o suporte dos acionistas, funcionários e parceiros e receber incentivos da administração da empresa. Você vai precisar apresentar um caso de negócios para justificar a mudança para os serviços virtuais, incluindo economias possíveis, gastos financeiros totais e outras informações. Você pode também ter de identificar a questão dos funcionários: como o número de servidores físicos será reduzido, alguns orçamentos sentenciam que o quadro de empregados também seja reduzido na mesma proporção. Além disso, podem pedir que você antecipe a carga de trabalho e quantifique os efeitos que um número menor de servidores físicos terão na empresa, assim como mensurar o que deve acontecer com mais servidores virtuais no seu departamento, abrangendo tempos e tarefas necessários.
Também examine suas necessidades de licenças. Dependendo do software que você estará rodando em suas máquinas de virtualização e em quais configurações, você pode precisar ajustar licenças ou adquirir novas para cobrir novas CPUs ou bases de usuários.

3. Selecione seu hardware e software.
Existem muitas escolhas no mercado para ajudar nas suas necessidades de virtualização e eles estão todos disponíveis em uma grande variedade de preços. O Virtual Server da Microsoft e o produto da VMware estão disponíveis gratuitamente para sua organização. Aplicações maiores, como o ESX Server e os produtos da Xen são oferecidos a um custo, mas fornecem mais funcionalidades e melhor performance. Isso tudo não é necessário se você precisa de uma simples consolidação de servidores ou hospedagem avançada e capacidades de configuração da rede. Cada fabricante estará mais que feliz por ajudar você a suprir suas necessidades, claro, e diversos deles têm “kits iniciais” que deixam você realizar projetos pilotos e explorar a tecnologia por um custo relativamente baixo.

4. Comece a migração.
O grande dia chega, depois de meses de planejamento e preparação, o tempo chega para finalmente transformar a parte física em virtual. Considere algumas ferramentas de migração para lhe ajudar. A Microsoft lançará em breve uma ferramenta que vai permitir a você mudar um servidor totalmente instalado com uma versão suportada do Windows para o formato de um disco rígido virtual, que é totalmente suportado pelo produto Virtual Server. A VMware trabalha em uma ferramenta com funcionamento similar. Estes utilitários podem ajudar a economizar horas, se não dias, de desempenho.
Mas existem outras coisas a considerar:

- Obtenha vantagens das capacidades do cluster. Ao usar equipamentos de alta performance você terá máquinas virtuais com maior disponibilidade, enquanto também melhoram seu desempenho.

- Pense sobre o gerenciamento. Como sua equipe vai gerenciar a coleção de máquinas virtuais que você terá? Que linguagens e APIs seu software de servidor virtual suporta? Você é capaz de acessar certos controles por meio da linha de comando por uma simples administração de acesso remoto?

- Não se esqueça do armazenamento. Você vai precisar um subsistema muito rápido para obter máxima performance dos seus servidores virtualizados. Tipicamente, você vai encontrar a maior briga em termos de preço na oferta de discos baseados em iSCSI. Eles são razoavelmente caros, mas têm boa configuração e são rápidos, também.

5. Monitore, avalie, ajuste e melhore.
Como em qualquer processo em andamento, é importante manter tabelas assim que começar a transição dos usuários e dos serviços para a nova plataforma. Estabeleça algumas métricas de performance e linhas de direção e avalie quais dessas métricas devem ser levadas em conta para futuros ajustes e melhorias. Considere ajustar as configuração do hardware, funcionalidades de rede ou aumento da largura de banda que sejam necessários. Seu trabalho não estará finalizado até que o boot final do sistema operacional virtual esteja concluído.

Jonathan Hassell - Computerworld, EUA

IBM cria operação na India para serviços de infra-estrutura

Gigante confirmou que nova operação vai se focar em oferecer serviços de infra-estrutura para seus clientes no mundo.

Por COMPUTERWORLD
23 de agosto de 2007 - 15h04
A nova operação da IBM vai se focar, de acordo com a companhia, em pequenos clientes, especialmente no setor SMB. A informação é de Ganesh Margabandhu, vice-presidente para serviços de tecnologia da IBM India. “Nosso foco vai ser em projetos em vez de focar em relações de longo período”, contou. Os serviços vão ser prestados a partir de um novo centro global de desenvolvimento instalado em Chennai, no sul da Índia. Inicialmente, serão oferecidos consolidação de servidores, serviços de middleware e serviços de site para os clientes globais da IBM. Depois, serão oferecidas arquitetura e estratégia de TI, serviços de rede, continuidade de negócios, segurança e privacidade, além de serviços de armazenamento e de dados.

De acordo com a IBM, o centro está equipado para empregar até 2,5 mil funcionários. Em janeiro de 2007, a IBM já tinha 53 mil funcionários na Índia.
John Ribeiro - IDG News Service, Índia

Matéria completa http://computerworld.uol.com.br/outsourcing/2007/08/23/idgnoticia.2007-08-23.0074149110/

Popularidade da VMware ignora a complexidade da virtualização

Artigo de Jerome Wendt, presidente da consultoria DCIG, aponta que o IPO da VMware foi a descoberta do valor da virtualização, mas a complexidade ainda é ignorada.

Por COMPUTERWORLD
23 de agosto de 2007 - 16h20
A proposta da VMware é simples. Em vez de comprar cinco, dez ou 30 servidores reais que hospedam uma única aplicação, você precisa apenas adquirir um servidor real e o software da VMware vai hospedar essas diferentes aplicações.
Os negócios amam isso, já que a VMware significa redução de custos imediatos. Elimina a exigência por compra de novo hardware a cada vez que é necessário inaugurar uma aplicação e também reduz o ciclo de vida de implementação de um projeto. Além disso, significa que menos servidores vão ocupar o data center, o que reduz gastos com cabeamento, energia e demanda por espaço físico.
O que as empresas precisam saber é que esse novo ambiente virtual passa a ter um nível enorme de complexidade. Ao mesmo tempo em que as empresas virtualizam servidores e gastam menos com infra-estrutura, a complexidade salta neste componente virtual.
Por exemplo, o processo de backup torna-se muito mais complicado. Antes da VMware, cada servidor real possuía uma conexão com a rede usada para os backups. Agora, cada servidor virtual precisa dividir a mesma conexão de rede de um mesmo servidor real usando VMware.
Infelizmente, a quantidade de dados em cada servidor virtual que precisa de backup não diminuiu, mas a banda para esse transporte caiu sensivelmente com a concorrência entre os servidores virtuais. Isso pode forçar as companhias para implementar tecnologias de armazenamento alternativas como proteção de dados contínua ou sistemas de storage baseados em replicação assíncrona. Assim, os servidores virtuais não precisam mais realizar o backup pelos métodos tradicionais. Mas introduz um novo custo no sistema e, também, um outro nível de complexidade.

A VMware ajuda a acabar com a idéia de “nova aplicação, novo servidor” nas empresas. No entanto, a virtualização não erradica a complexidade, o que demanda dos departamentos de TI a garantia de que as tecnologias de armazenamento mantenham-se atualizadas com a virtualização de servidores.

Jerome Wendt – Computerworld, EUA

Matéria completa: http://computerworld.uol.com.br/mercado/2007/08/23/idgnoticia.2007-08-23.9767025962/

Virtualização

O que é virtualização?
Virtualização refere-se a tecnologias criadas para fornecer uma camada de abstração entre sistemas de hardware de computador e o software que roda nestes sistemas. Ao proporcionar uma visão lógica dos recursos de computação, em vez de uma visão física, as soluções de virtualização possibilitam duas coisas muito úteis: que você leve seus sistemas operacionais a pensarem que um grupo de servidores é um pool único de recursos de computação e que você rode múltiplos sistemas operacionais simultaneamente em uma única máquina.A virtualização origina-se do particionamento, que divide um único servidor físico em múltiplos servidores lógicos. Depois que o servidor físico é dividido, cada servidor lógico pode rodar um sistema operacional e aplicativos de maneira independente. Nos anos 90, a virtualização era usada principalmente para recriar ambientes do usuário final em um único mainframe. Se um administrador de TI desejava implementar novo software, mas queria ver como ele funcionaria em uma máquina Windows NT ou Linux, utilizava tecnologias de virtualização para criar os diversos ambientes do usuário.Com o advento da arquitetura cliente/servidor, porém, a virtualização perdeu a força e parecia não ir muito além de uma novidade passageira da era do mainframe. É justo creditar o recente renascimento da virtualização no x86 aos fundadores da VMware, atual líder de mercado. A VMware desenvolveu o primeiro hipervisor para a arquitetura x86 na década de 90, plantando a semente para o boom da virtualização a que estamos assistimos.

Por que eu quereria a virtualização?
O frenesi da indústria em torno da virtualização não está diminuindo. Esta capacidade que “precisamos ter” transformou-se rapidamente em uma tecnologia que “vamos ter”, com novos players entrando no mercado e fornecedores de software empresarial incorporando a virtualização às versões mais novas de suas linhas de produtos. A razão é simples: quanto mais é utilizada, mais ela demonstra benefícios tangíveis, ampliando seu valor para a corporação.A consolidação de servidores, definitivamente, é o pote de ouro deste mercado. A virtualização se tornou a pedra fundamental da iniciativa de economizar dinheiro em toda empresa. Analistas da indústria revelam que entre 60% e 80% dos departamentos de TI estão engajados em projetos de consolidação de servidores. É fácil ver por que: ao reduzir o número e os tipos de servidores que suportam seus aplicativos de negócio, as empresas vislumbram uma economia de custos significativa. Menor consumo de energia, tanto dos próprios servidores quanto dos sistemas de refrigeração das instalações, e uso mais abrangente de recursos de computação existentes subutilizados se traduzem em vida mais longa do data center e resultados financeiros melhores. Além disso, é mais fácil gerenciar uma área de servidores menor.Especialistas, entretanto, reportam que a maioria das empresas começa a explorar a virtualização em ambientes de teste e desenvolvimento de aplicativos. A virtualização evoluiu rapidamente de um truque bem-feito para rodar sistemas operacionais extras a uma ferramenta mainstream para desenvolvedores de software. Hoje, são raros os aplicativos projetados para um único sistema operacional. Com a virtualização, desenvolvedores trabalhando em uma única workstation podem criar código que executa em muitos ambientes diferentes e, talvez mais importante, eles podem testar este código. Em linhas gerais, trata-se de um ambiente não-crítico e, portanto, um lugar ideal para fazer experiências.Depois que o desenvolvimento de aplicativos está azeitado e o data center é transformado em um pool altamente integrado de recursos de computação, a consolidação de storage e de rede começa a galgar a lista de tarefas. Também vale a pena considerar outros recursos e outras capacidades que a virtualização proporciona: alta disponibilidade, disaster recovery e balanceamento de carga de trabalho.

Como a virtualização pode beneficiar meu negócio?
Além de promover uma economia de custos potencialmente drástica, a virtualização pode tornar muito mais ágeis os negócios de uma organização. As empresas que usam clustering, particionamento, gerenciamento de carga e outras técnicas de virtualização para configurar grupos de servidores em pools reutilizáveis de recursos estão melhor posicionadas para satisfazer as exigências dinâmicas do negócio em relação a estes recursos. Além do mais, esta tecnologia propicia uma mudança fundamental no modo de os gerentes de TI encararem os recursos de computação. Quando o gerenciamento de máquinas individuais deixa de ser um desafio, o foco de TI pode mudar da tecnologia para os serviços que a tecnologia oferece.

Quais são os tipos de virtualização?
Existem três categorias básicas de virtualização: a virtualização de storage funde o armazenamento físico de múltiplos dispositivos de armazenamento em rede de forma que pareçam ser um único dispositivo de storage; a virtualização de rede reúne recursos de computação em uma rede ao dividir a largura de banda disponível em canais independentes que podem ser designados para um servidor ou dispositivo específico em tempo real, e a virtualização de servidores oculta a natureza física dos recursos de servidores -- incluindo o número e a identidade de servidores individuais, processadores e sistemas operacionais -- do software que roda neles.Esta última categoria é, de longe, a aplicação mais comum da tecnologia hoje e amplamente considerada a mola propulsora do mercado. A maioria das pessoas, quando usa o termo “virtualização”, provavelmente se refere à virtualização de servidores.

Que terminologia importante devo conhecer?
O que é hipervisor?Hipervisor é o componente mais básico da virtualização. É o software que desvincula o sistema operacional e os aplicativos de seus recursos físicos. Um hipervisor tem seu próprio kernel e é instalado diretamente no hardware, ou “bare metal”. Ele é, quase literalmente, inserido entre o hardware e o sistema operacional.O que é uma máquina virtual?Uma máquina virtual (MV) é um ambiente operacional auto-suficiente, ou seja, um software que funciona com, mas é independente de, um sistema operacional host. Em outras palavras, é uma implementação em software de uma CPU, independente de plataforma, que executa código compilado. Uma máquina virtual Java, por exemplo, executa qualquer programa baseado em Java (mais ou menos). As MVs têm de ser desenvolvidas especificamente para os sistemas operacionais nos quais rodam. As tecnologias de virtualização também são chamadas de “software dinâmico de máquina virtual”.

O que é paravirtualização?
Paravirtualização é um tipo de virtualização em que o sistema operacional inteiro roda sobre o hipervisor e se comunica com ele diretamente, resultando em melhor performance. Porém, os kernels do sistema operacional e do hipervisor precisam ser modificados para acomodar esta interação estreita. Um sistema operacional Linux paravirtualizado, por exemplo, é otimizado especificamente para rodar em um ambiente virtual. A virtualização total, em comparação, apresenta uma camada abstrata que intercepta todas as chamadas para recursos físicos.A paravirtualização se apóia em um subconjunto virtualizado da arquitetura x86. Avanços recentes em chips da Intel e da AMD estão ajudando a suportar esquemas de virtualização que não requerem sistemas operacionais modificados. “Vanderpool”, a tecnologia de virtualização da Intel no nível do chip, foi uma das primeiras inovações deste tipo. A extensão “Pacifica” da AMD provê suporte adicional à virtualização. Ambas são projetadas para simplificar o código de virtualização e melhorar potencialmente a performance de ambientes totalmente virtualizados.

O que é virtualização de aplicativos?
A virtualização na camada de aplicativos isola os programas do hardware e do sistema operacional, encapsulando-os como objetos movíveis independentes que podem ser deslocados sem afetar outros sistemas. As tecnologias de virtualização de aplicativos reduzem as alterações relacionadas a aplicativos no sistema operacional e mitigam os desafios de compatibilidade com outros programas.

O que é um appliance virtual?
Um appliance virtual não é, como o nome sugere, um hardware. É um aplicativo pré-fabricado e pré-configurado, empacotado com um sistema operacional dentro de uma máquina virtual. Um appliance virtual é um veículo de distribuição de software, apregoado pela VMware e outros fornecedores como uma maneira melhor de instalar e configurar software. Ao visar a camada de virtualização, ele precisa de um destino com um hipervisor. A VMware e outras empresas estão louvando o appliance virtual como uma maneira melhor de empacotar demonstrações, provas de conceito e avaliações de software.

O que é Xen?
O Projeto Xen desenvolveu e continua a evoluir um hipervisor open source gratuito para o x86. Disponível desde 2003 sob a GNU General Public License (Licença Pública Geral), o Xen roda em um sistema operacional host, sendo considerado uma tecnologia de paravirtualização. Iniciou como um projeto de pesquisa na Universidade de Cambridge, conduzido por Ian Pratt, que posteriormente saiu da universidade para fundar a XenSource, primeira empresa a implementar uma versão comercial do hipervisor Xen. Diversas grandes empresas agora suportam o Xen, incluindo Microsoft, Novell e IBM. A XenSource (compreensivelmente) e a Virtual Iron, uma startup na área de SAP, oferecem soluções de virtualização baseadas no Xen.

Qual são os benefícios da virtualização em termos de custos?
Departamentos de TI em toda parte estão sendo pressionados para fazer mais com menos. As tecnologias de virtualização proporcionam uma maneira direta e prontamente ‘quantificável’ de atingir esta meta ao reunir recursos de computação dispersos em pools compartilháveis.Os analistas estimam, por exemplo, que uma empresa mediana utiliza entre 5% e 25% de sua capacidade de servidor. Nestas empresas, a maior parte da energia consumida pelo hardware está apenas aquecendo a sala durante ciclos ociosos. O emprego de tecnologia de virtualização para consolidar servidores x86 subutilizados no data center gera uma economia de custo de única vez imediata e economias contínuas potencialmente expressivas.O impacto imediato mais óbvio vem da redução do número de servidores no data center. Menos máquinas significam menos consumo diário de energia, tanto dos próprios servidores quanto dos sistemas de refrigeração que as empresa precisam operar e manter para evitar que eles superaqueçam.A transformação de uma fazenda de servidores em um pool de computação altamente integrado também pode reduzir futuros gastos com hardware, ao mesmo tempo promovendo economias através de modelos de preço baseado em uso, por exemplo. Além do mais, uma estratégia de virtualização de servidores abre um espaço valioso em rack, proporcionando oportunidade de crescimento para uma empresa. Do ponto de vista de recursos humanos, um data center mais enxuto permite uma melhor alocação dos administradores.

Que tipos de desafios a virtualização apresenta?
Esta tecnologia muda o modo como um data center é gerenciado, administrado e operado. Antes da virtualização de servidores, por exemplo, você simplesmente entrava em um data center, perguntava ao administrador quais eram os cinco principais aplicativos da organização e ele mostrava as máquinas nas quais estes aplicativos estavam rodando. A virtualização desfaz este vínculo tradicional entre hardware e software.A desvinculação, entretanto, propicia conflitos de performance. Alguns aplicativos têm perfis cíclicos de performance, por exemplo. Um aplicativo de negociação de ações da West Coast e um aplicativo SIMEX rodando na mesma máquina vão se sobrepor em horários de pico do mercado, afetando a performance. Portanto, os administradores têm de pensar muito bem em como o data center virtualizado vai operar. Os grandes fornecedores de virtualização, normalmente, disponibilizam vastos recursos técnicos e pelo menos algum treinamento para explicar como suas soluções funcionam. Mas cada data center opera de uma maneira diferente e cabe aos administradores conhecer seus sistemas.

O que devo buscar em uma solução de virtualização?
Em uma palavra: gerenciamento. A tecnologia de hipervisor core que separa a pilha de aplicativos do hardware subjacente ruma para a comoditização. Os grandes fornecedores de software empresarial (Microsoft, Sun Microsystems, BEA Systems, Hewlett-Packard, BMC e CA, por exemplo) estão incluindo a tecnologia em seus pacotes de produtos e os fornecedores autônomos de virtualização estão dando-a. Eles diferem apenas na capacidade de disponibilizar ferramentas para gerenciar, monitorar e otimizar a alocação de recursos virtualizados. Procure soluções que fornecem ferramentas fáceis de usar para colher estatísticas e aplicar políticas dinâmicas de modo a melhor alocar os recursos físicos entre os consumidores virtuais destes recursos.Conseqüentemente, a inovação na arena da virtualização está acontecendo em um nível mais alto. Os produtos de próxima geração são totalmente voltados para gerenciamento. A VMware pressentiu os acontecimentos e deu a virada. O pacote VMware Infrastructure reúne servidores, storage e rede em um único pool de recursos. Soluções de virtualização empresarial, como o ESX Server da VMware, fundem CPUs, memória, rede, storage e aplicativos em pools altamente integrados de recursos de computação.A virtualização contribui muito para reduzir os requisitos físicos do data center, mas também pode elevar o nível de complexidade de gerenciamento destes servidores. Portanto, busque soluções que forneçam gerenciamento de sistemas cross-platform tanto para as máquinas virtuais quanto para as físicas.Além disso, você vai querer migrar os aplicativos legados e os sistemas operacionais existentes na sua organização, sem modificação, para partições virtuais. Com esta migração, será mais fácil aprimorar a performance destes aplicativos, mas você precisará de uma solução que suporte a integração da virtualização com ferramentas de gerenciamento legadas.A virtualização não se refere mais apenas a consolidação de servidores. Flexibilidade é outro benefício-chave da tecnologia. Em ambientes virtualizados é mais fácil mover, encapsular, arquivar e otimizar. Os fornecedores de virtualização líderes estão provendo capacidades de “migração em tempo real” que tornam a vida do administrador de rede mais fácil e produtiva.

segunda-feira, 20 de agosto de 2007

Entrevista » Raquel Almeida

“Confraternização é o melhor do evento”

Aluna do Instituto de Tecnologia da Aeronáutica (ITA) e ex-aluna da UPE, Raquel Almeida integrou o time Oysterix, que representou o Brasil na Imagine Cup na categoria Projeto de Software.

JORNAL DO COMMERCIO – Como é conviver em um ambiente predominantemente masculino?
RAQUEL ALMEIDA – Já estou acostumada. Faz sete anos que convivo praticamente só com meninos, desde a graduação. Só fica em engenharia as mulheres mais raçudas. Os homens não facilitam a vida da gente, não.

JC – Você acompanhou o alto nível dos seis finalistas da categoria Projeto de Software. Sua equipe poderia estar lá?
RAQUEL – Nosso projeto, o KnowTouch, tinha condição de estar entre os seis. A gente achava que pelo menos entre os 12 finalistas estaria de todo jeito.

JC – O que aconteceu?
RAQUEL – Acho que precisamos melhorar a apresentação. A falta de experiência acabou pesando.

JC – O que é o melhor da Imagine Cup?
RAQUEL – O clima de confraternização entre todas as equipes, gente de todos os países, é muito bom mesmo que a gente não ganhe. Perdi, mas tudo bem. Se ganhasse, claro, era melhor ainda.

JC – Então é válido mesmo para quem não leva o prêmio?
RAQUEL – Participar da Imagine Cup vale muito a pena. Abre sua cabeça, é muito superior a qualquer aprendizado teórico. As pessoas que estão aqui sempre participam de projetos grandiosos.

JC – Você pretende participar de novo no ano que vem?
RAQUEL – Quem participa de uma Imagine Cup quer sempre participar de outra.

Materia retirada do Jornal do Commercio - Caderno de Informática
Publicado em 15.08.2007

Entrevista » André Furtado

“Competição combina inovação e marketing”

André Furtado participa da Imagine Cup desde 2005. Este ano, integra a equipe vencedora TriventDreams. Esta foi sua última Imagine Cup, pois em janeiro ele começa a trabalhar para a Microsoft nos EUA.

JORNAL DO COMMERCIO – Ser veterano na Imagine Cup faz diferença no resultado final?
ANDRÉ FURTADO – Faz a diferença em como você trabalha a idéia, o que prioriza na apresentação, como redige documentos. Mas se fosse determinante, teríamos ganho a etapa do Brasil em Projeto de Software, e ficamos em segundo lugar.

JC – O que conta mais na competição? A idéia em si ou saber vender a idéia?
FURTADO – O que importa é uma combinação de inovação e marketing. Saber vender o peixe, além de persistência e dedicação. Treinar a apresentação 30 vezes, por exemplo. Quem vê pensa que é moleza, mas este é um dos momentos mais tensos do ano para mim.

JC – Os momentos anteriores à apresentação são bem tensos. O que fazer para não perder o foco?
FURTADO – Desenvolvi um mantra. Pego o iPod e fico ouvindo Arctic Monkeys antes de começar.

JC – O que a Imagine Cup traz de aprendizado para a vida?
FURTADO – Dá um background de business que se usa não só em competição, mas também na vida profissional, como meu projeto atual, a fábrica de inovação MyTV.

JC – A competição ficou mais profissional ao longos dos anos?
FURTADO – Percebo uma maturidade das equipes bem maior, mas também tem a cultura Imagine Cup, com pontos de apoio para quem quer participar. Meu projeto de 2005 teria mínimas chances hoje (na época, ficou em 4º lugar em Projeto de Software).

Publicado em 15.08.2007
Matéria retirado do Jornal do Commercio - Caderno Informática

Sun e IBM lançam novos super computadores

A IBM lançou recentemente seu novo super computador Blue Gene com performance triplicada.
Já a SUN usou chips AMD quad-core para lançar seu Constellation.
O sistema batizado de Constellation será exibido na Conferência Internacional de Supercomputadores, em Dresden, na qual fabricantes se reúnem duas vezes por ano. É lá que deve ser lançada a nova edição da lista Top 500, que reúne os 500 maiores computadores do mundo, na quarta-feira.
A IBM, que liderava o ranking em novembro passado com seu Blue Gene/L, prometeu apresentar hoje um modelo ainda mais rápido, o Blue Gene/P. Segundo a empresa, o novo Blue Gene/P terá o triplo da performance da versão L, incluindo velocidade potencial de três 3 petaflops (três trilhões de operações de ponto flutuante por segundo).
Já o Constellation, da Sun, terá um total de 131.072 núcleos de processamento e até 1.08 petaflops de velocidade. Além disso, terá 100TB (terabytes) de memória e velocidade de transporte de informação para a central de processamento de 3TB por segundo. Um terabyte é aproximadamente 1 trilhão de bytes.
O Constellation será baseado em padrões abertos, como os processadores x64, servidores blade da Sun, armazenamento Sun Fire x4500 e sistema operacional Solaris, de código aberto, ou Linux, enquanto o Blue Gene é feito com componentes customizados.

Fonte: http://idgnow.uol.com.br/computacao_corporativa/2007/06/26/idgnoticia.2007-06-26.9322418957/

Sun e IBM anunciam acordo para sistemas operacionais para frear o crescimento do Linux

A Sun anunciará um acordo onde a IBM suportará o Solaris na sua linha de servidores Intel.
A Sun possui apenas uma tecnologia de sistema operacional, o Solaris.A empresa vem tentando emplacar o software como alternativa ao Linux, cuja popularidade afetou profundamente os negócios da Sun no início da década.
Mas até o momento a empresa falhou em obter suporte de rivais como IBM, Hewlett-Packard ou Dell.
O presidente e CEO da Sun, Jonathan Schwartz, e o chefe do grupo de hardware da IBM, Bill Zeitler, vão conduzir a conferência, indicando que a IBM poderá suportar o Solaris na sua linha de servidores Intel, que incui sistemas System x e BladeCenter.
É um grande passo para a IBM, que sempre foi uma importante defensora do Linux. A empresa também vende, contudo, sistemas Intel com Windows, da Microsoft.

Fonte: http://idgnow.uol.com.br/mercado/2007/08/16/idgnoticia.2007-08-16.5693312365/

sexta-feira, 17 de agosto de 2007

50 Campeões da Inovações

Pode ser na medicina, na música, no software, nas ruas — ou até numa simples camiseta. O que crava o adjetivo criativo num bit é o uso inovador que está por trás dele. E quem são os cérebros que andam apontando esse caminho no Brasil? Na edição de agosto, a revista INFO levantou uma lista com 50 pessoas que não economizam quando o assunto é inovação — nas categorias internet, universidade e pesquisa, empreendedores, empresas e governo.



SILVIO MEIRA Cientista-chefe do C.E.S.A.R
UNIVERSIDADES E PESQUISAS

A meta do Porto Digital, do Recife, é chegar em 2015 com 200 empresas, 20 mil funcionários e um faturamento de 2 bilhões de dólares — 10% do PIB de Pernambuco. Um dos idealizadores da iniciativa é o professor e cientista Silvio Meira. “O mercado mundial de software cresce 15% ao ano e o objetivo é colocar Recife nesse mapa”, afirma. Criado em 2000, o Porto Digital é um pólo de tecnologia que abriga, atualmente, 105 empresas (entre elas, Motorola, Samsung, IBM e Microsoft) e 3 500 empregados.


Veja a lista completa aqui!

IBM vai distribuir servidores com Solaris

NOVA YORK - A IBM anunciou que vai distribuir servidores com o Solaris, da Sun.
A IBM vai vender a seus clientes servidores equipados com o sistema operacional Solaris, da Sun Microsystems, em um acordo que põe no mesmo lado as duas empresas fabricantes de hardware contra a concorrente Hewlett-Packard.
Os detalhes financeiros do acordo, originalmente anunciado na quinta-feira, não foram divulgados.
A IBM vai distribuir o Solaris em alguns de seus servidores blade. Essas máquinas são servidores compactos que normalmente ficam empilhados como livros numa prateleira. A Sun está atrás da HP e da IBM no mercado de servidores blade.
O Solaris é uma das muitas variações da família Unix de sistemas operacionais, reconhecida por sua capacidade em lidar com grandes tarefas computacionais com segurança e estabilidade.

Matéra retirada do site: http://info.abril.uol.com.br/aberto/infonews/082007/17082007-11.shl

Imagine Cup é terra de pernambucanos

Matéria retirado do Jornal do Commercio - Caderno de Informática

Publicado em 15.08.2007

Nas últimas três edições do evento da Microsoft que reúne estudantes de tecnologia de todo o mundo, alunos do Estado participaram – e se destacaram. Alguns são inclusive veteranos na disputaSEUL – Não é fácil se destacar no mar de rapazes de jeans e tênis de mais de 60 países diferentes que forma a Imagine Cup, um universo em que a tecnologia é a ferramenta comum e o inglês é a língua oficial (sim, as moças são minoria e o nível de domínio do idioma anglo-saxão às vezes compromete, principalmente entre os asiáticos). A idéia para uma das nove categorias precisa ser inovadora. Mas não basta. É preciso saber “vendê-la”, no melhor sentido que o marketing pode dar à palavra.
E isso os meninos de Pernambuco sabem bem. Este ano foi o primeiro lugar em Sistemas Embarcados com a equipe TriventDreams. Ano passado foi o segundo lugar em Projeto de Software (Trivial Team). Em 2005, o primeiro lugar em Solução para Microsoft Office (Solvent-OD) e o quarto lugar em Projeto de Software (Solvent-SD).
Este ano, o projeto da TriventDreams, o e-du, se propunha a atacar um dos problemas vitais da educação, tema da competição deste ano: o analfabetismo. No melhor estilo Paulo Freire, a solução que eles criaram permite ao aluno aprofundar conteúdos dentro do seu campo de conhecimento. Daí porque o professor pode adaptar as lições para cada aluno de forma rápida, contando com recursos animados e com a interação entre os alunos.
Como o computador e a internet em alta velocidade ainda são uma quimera para milhões de alunos do Brasil e do mundo, os rapazes – André Furtado, Carlos Eduardo Rodrigues e Ivan Cardim, da Universidade Federal de Pernambuco (UFPE), e Roberto Soninno, da Universidade de São Paulo (USP) – colocaram o sistema em um hardware de baixo custo, o e-box (obrigatório nessa categoria), que pode ser interligado com uma televisão qualquer e operado com uma caneta especial que funciona como mouse. Com a ressalva que a solução também pode ser colocada em computadores de potencial limitado, como máquinas doadas por empresas a telecentros ou portáteis de baixo custo, como o que ficou conhecido como notebook de US$ 100.
Para atuar como motivador do aprendizado, o time inseriu no projeto um fantoche articulado digitalmente batizado de Waldomiro que interage com o aluno, assentindo nas respostas certas e estimulando a se tentar novamente diante de respostas erradas. “No futuro, a voz que hoje está no computador poderá sair do Waldomiro”, explica Rodrigues. O time contou com o design de Eduardo Soninno, irmão de Roberto e campeão com ele da categoria Interface Design na Imagine Cup do ano passado. Todos os integrantes da equipe TriventDreams, aliás, já participaram com destaque de outras edições da Imagine Cup.
Pelo projeto, cada solução custa hoje US$ 230, fora o hardware, que custa outros US$ 120. “No futuro, pretendemos conseguir baixar esse custo”, diz Furtado. O e-du foi colocado em prática antes da Coréia do Sul com alunos de alfabetização de 4 a 6 anos do Colégio Madre de Deus, no Recife.
Os estudantes pretendem aperfeiçoar o protótipo e levar o projeto adiante.

quinta-feira, 16 de agosto de 2007

BRASIL BRILHA NA IMAGINE CUP

Matéria retirado do Jornal do Comercio - Caderno de Informática

Publicado em 15.08.2007

Competição da Microsoft reúne estudantes do mundo todo – e times brasucas se destacamMelissa de Andrade
Enviada especial
SEUL – Cinco equipes na etapa mundial, um primeiro lugar na categoria Sistemas Embarcados e um terceiro lugar em Filme de Curta Metragem. O desempenho do Brasil na Imagine Cup 2007, realizada na semana passada em Seul, na Coréia do Sul, foi motivo de comemoração entre os competidores tupiniquins e executivos da Microsoft Brasil: mais um ano em que a participação verde e amarela é destaque na competição de programação da Microsoft.
Claro que não ainda não somos nenhuma Polônia, que arrebatou três primeiros lugares este ano, mas o alto nível que o evento vem ganhando a cada edição não é motivo para desânimo. “Tivemos problemas com isso dois anos seguidos, quando a Universidade Federal de Pernambuco (UFPE) ganhou a Imagine Cup. Foi criado um medo, ou um respeito, mas isso não temos como controlar. O que posso dizer é que a Universidade de Pernambuco (UPE) não goza do mesmo prestígio que a UFPE e ganhou a Imagine Cup Brasil este ano”, diz Rogério Panigassi, brasileiro que é o mais novo gerente de Marketing da Microsoft nos Estados Unidos. “Você vai ver talento independentemente da tradição da escola. A Universidade Estadual de São Paulo (Unesp) não tem tanta tradição como a Universidade de São Paulo (USP) e levou três times para a Imagine Cup.”
Os estudantes concordam. Participar, dizem, é o melhor de tudo. “Ganhando ou não, a gente tem noção de business”, defende o doutorando da UFPE André Furtado, integrante do time que venceu a categoria Sistemas Embarcados, o TriventDreams, e veterano na competição. “Para quem quer emprender, aqui é o atalho certo, porque permite amadurecer e fazer contatos. É um trampolim do mundo acadêmico para o profissional”, define.
Para Diogo Burgos, participante do time da UPE que venceu a Imagine Cup Brasil mas não passou da primeira etapa em Seul, a Oysterix, os ganhos são muitos. “Só em ter vindo você começa a ver as coisas de maneira diferente”, disse. A colega de equipe Raquel Almeida emendou: “O clima de confraternização entre todos os times é muito bom, mesmo que a gente não ganhe”.
Colega de equipe de Furtado e também veterano da Imagine Cup, Carlos Eduardo Rodrigues diz que fazer demonstração do projeto vencedor da Imagine Cup é uma de suas obrigações como Microsoft Student Partner, estudante que divulga as tecnologias da Microsoft. “Uma de nossas preocupações é mostrar aos alunos que eles têm condições de fazer projetos que competem com os outros países.”
Animou-se em participar? O site da Imagine Cup 2008 já está no ar (www.imaginecup.com), e Panigassi adianta que haverá mudanças. As categorias Projetos de Software, Sistemas Embarcados e Games (esta estréia no próximo ano) vão ter o mesmo status, com prêmio equivalente de US$ 15 mil para o time ganhador.
Se o tema deste ano foi educação para todos, o foco da próxima edição será meio-ambiente sustentável. E não será preciso se aventurar pela escrita ininteligível dos coreanos nem por sua culinária exótica – e apimentada: em 2008 os estudantes do mundo todo vão se encontrar em Paris para mostrar o que sua criatividade tem de melhor.

sexta-feira, 15 de junho de 2007

TechNet Briefing: Culminis RoadShow 2007, Recife - PE.



Evento da Microsoft Road Show

Não paga nada é 0800!

Estarei lá conferindo de perto este evento da Microsoft prometo postar aqui as fotos do evento!
Faculdade Mauricio de Nassau
Rua Guilherme Pinto, 114 - GraçasRecife
Pernambuco 52.010-210 Brasil
Visão Geral do Evento
Culminis RoadShow 2007 - Recife.
Windows Server 2008 - Visão Geral: Novos recursos e funcionalidades da próxima versão do sistema operacional de rede da Microsoft.
Palestrantes: Felicio Guimarães dos Santos.
Você no Controle - Controlando o que flui através da rede.
Palestrante: Fernando Fonseca.
Carreira do Profissional de Segurança:Apresentação da carreira de profissional em segurança da informação em nome do capítulo Brasil da ISSA (International Systems Security Association).
Palestrante: Sergio Toscano Dias Pereira.
Inscreva-se aqui!

quinta-feira, 7 de junho de 2007

Pesquisadores solucionam segredo do ‘Cubo Mágico’ em 26 movimentos


Graças à Ciência da Computação o segredo para igualar as faces do Cubo de Rubik pode ser solucionado em apenas 26 movimentos. Até então, o recorde era de 27 movimentações.
Gene Cooperman, professor de Ciência da Computação da Northeastern University, e o aluno graduado Dan Kunkle conseguiram bater o recorde por meio de duas técnicas: usaram um disco distribuído de 7 terabytes como uma extensão de memória RAM para suportar grandes tabuleiros e desenvolveram uma nova e “muito rápida” maneira de computar os movimentos, incluindo grupos inteiros de viradas, por meio de um grupo de teorias matemáticas.
O Cubo de Rubik foi inventado no final da década de 70 pelo húngaro Erno Rubik e é provavelmente o quebra-cabeças de diferentes combinações mais famoso dos tempos modernos. Seu formato comporta mais de 43 quintilhões (4,32 milhões x 10**19) de apresentações diferentes.
Mais detalha aqui!

domingo, 27 de maio de 2007

Discos cobertos com proteína podem armazenar 50TB


A Escola de Medicina de Harvard descobriu uma maneira de criar discos com capacidade de 50TB. Um só disco desses armazenaria duas mil vezes mais informação que um disco Blu-ray. O disco desenvolvido por Professor V Renugopalakrishnan (o cara deve ser grego) é coberto por milhares de proteínas fotossensíveis chamadas bacteriorhodopsin. Cada uma dessas proteínas funciona como um bit, alternando seu estado normal e quando é aplicada luz sobre ela. O problema é que a proteína tende a voltar ao seu estado normal poucas horas após a aplicação da luz. O desafio agora é fazer com que esse período se estenda por vários anos. Nossa dúvida é a seguinte: se um Blu-ray com 25GB demora 15 minutos para ser gravado, quanto tempo demoraria para gravar um disco com 50TB?

Origami DVD Player


Telas dobráveis. Esse é um conceito que deve prevalecer no futuro. Pensando nisso o site inventables.com criou o Origami DVD Player, que usa e-paper totalmente flexível em sua tela. Quando não usada, a tela é dobrada e fica reduzida dentro da concha. Este conceito tem duas caixas de som, imprescindíveis para um DVD player portátil. Nenhuma palavra sobre quando esse futurístico player será lançado.

Samsung desenvolve tela 3D de AMOLED


A Samsung criou uma tela 3D feita de AMOLED (active matrix organic light-emitting diode). A tela tem 4,3 polegadas e promete trazer aos aparelhos portáteis a maior definição do mundo. A Samsung afirma ainda que essa tela de AMOLED reproduz imagens 3D com muito mais velocidade que as telas de LCD. Essa é uma tecnologia que promete, resta saber em quanto tempo teremos telas assim em portáteis.

Monitor USB da Samsung dispensa placa de vídeo

SyncMaster 940UX: o monitor entra na disputa pelas portas USB 2.0 do PC
As portas USB 2.0 do PC estão se abrindo para mais um equipamento: o monitor. A Samsung anunciou que começa a vender em maio (lá fora, é claro) a linha de monitores de LCD UbiSync. O primeiro modelo a dispensar as conexões D-Sub e DVI para se comunicar com o micro é o SyncMaster 940UX, de 19 polegadas, exibido na CeBit.
Segundo a Samsung, depois de plugado em um porta USB 2.0, o display é reconhecido pelo Windows como um drive externo. Nele está armazenado o programa de instalação de uma placa de vídeo virtual que pemite a transmissão das imagens pela porta USB.
Com a tecnologia UbiSync será possível ligar facilmente até seis monitores em um único micro ou notebook. Mas não em um computador qualquer. A Samsung já adiantou que o monitor USB exige uma boa carga de recursos da CPU. Para trabalhar com várias telas, a empresa recomenda uma máquina com processador dual core e pelo menos 2 GHz de clock. Sem contar o hub USB, que será indispensável para continuar usando impressora, mouse, teclado, câmera, HD externo, MP3 player...

Yod'm 3D + Dextop 1.4

Para quem faz muitas coisas ao mesmo tempo no computador e quer ter mais espaço na tela e não pode ter outro monitor para expandir seu desktop essas são duas ferramentas muito boa para isso aumente sua produtividade sem ter que ficar com tudo aberto em um só desktop, podendo gerênciar suas atividades com mais facilidade e organização.
Programas usados: Yod'm 3D + Dextop 1.4 :

Yod'm 3D: http://chsalmon.club.fr/index.php?en/Download
Dextop 1.4: http://www.dexpot.de/


OBS.: Você não precissa instalar nada para o Yod'm 3D, você apenas descompacta e roda direto do diretorio, por padrão o "cubo" vem a opção opaco (não transparente).


Para alterar de opaco para transparente altere o arquivo Yodm3D.ini na linha CubeTransparency mude de 1.000000 para 0.500000 salve e rode o programa Yodm3D.exe

Sony produz protótipo de OLED flexível

A LG e a Philips, anunciaram a pouco tempo uma tela flexível, utilizando uma técnica chamada E-Ink. Agora é a vez da Sony, que, usando outra tecnologia, conseguiu mostrar uma TV LED flexível. O intuito disso é oferecer telas para qualquer ocasião com consumo de energia muito menor, além da redução no peso e espessura de notebooks, TVs e monitores, por exemplo. É a nova geração, depois do LCD e Plasma, assim como esses dois últimos substituíram os CRTs. As novas telas são feitas de plástico, permitindo que o OLED seja flexível. O protótipo da SOny tem 2,5 polegadas, mas afirma que versões maiores (de tamanhos comerciais) serão mostradas a curto prazo.