quinta-feira, 19 de dezembro de 2013

A web de cara nova e livre com HTML5

Para fazer o leitor entender o que é o HTML5, é necessário voltar alguns anos atrás desde o surgimento da sua forma primária: ”HYPER TEXT MARKUP LANGUAGE”, o vovô HTML é uma mistura dos códigos Hytime e SGML e se desenvolveu em 1980, quando o físico, cientista da computação, criador da World Wide Web (WWW) e professor do MIT (Massachussetts Institute of Technology) Timothy Jhon Berners Lee criou a primeira versão da linguagem.
Em 1994, na conferência mundial World Wide Web, em Genebra, na Suíça, surgiu a segunda versão, o HTML 2.0. Ali nasceu também o World Wide Web Consortium (W3C), entidade reguladora dos padrões HTML que é ainda comandada por Berners Lee.
No ano 2000 o W3C anunciou o lançamento do XHTML. Essa nova mudança era baseada em XML (extensible markup language), linguagem de marcação bem mais rigorosa do que o  flexível   HTML. A intenção era permitir que o XHTML fosse lido também por softwares, podendo integrar-se com suas linguagens e códigos nativos.
O rigor do XHTML desagradou bastante as grandes companhias como Apple, Google, Mozilla e Opera, que já tinham ampla influência na web a nível global, elas lançaram um grupo paralelo ao W3C e o batizaram de WHATWG (Web Hypertext Application Technology Working Group).
Dois anos depois da criação do WHATWG, sabiamente, Berners Lee reconheceu a importância do grupo , e anunciou que o W3C trabalharia em conjunto com ele.












O resultado dessa cooperação veio em 2008. Ainda em caráter experimental, o HTML5 foi publicado pelo W3C. Um ano depois, o desenvolvimento do XHTML foi encerrado.
O HTML5 ampliou o papel da linguagem, mais preparada para as necessidades de quem cria sites, aplicativos e outros afins online. É como se a linguagem se adaptasse às pessoas, e não mais o inverso.
Por causa desses avanços e da facilidade para trabalhar com animações, áudio e vídeo, o HTML5 é o mais forte candidato para o padrão consensual de aplicações de smartphones e tablets. Usar uma mesma linguagem aprovada pelos grandes players do mercado e aberta para desenvolvedores é vantajoso para todos.
A habilidade de Berners-Lee para unir concorrentes em torno de uma causa se repetiu, graças a ele, os arquirrivais Apple, Microsoft, Google e Facebook figuram como parceiros no site WebPlatform.org. O objetivo é desenvolver uma linguagem uniforme, e quem sai ganhando com isso e a web inteira.
o HTML 5 oferta interfaces de programação de aplicações (APIs, na sigla em inglês) para o desenvolvimento de aplicações no browser, como acesso offline, recursos gráficos 2D por meio da tecnologia Canvas  para áudio e vídeo. Elas vêm para quebrar o paradigma de que o browser é simplesmente um “exibidor de páginas”.
Esteve Jobs já anunciava o fim da dependência da web de softwares proprietários , no caso, o Flash Player da Adobe, analisando o cenário global, previa a imensa diversificação de plataformas portáteis, claro, fazendo um breve ”merchan” da Apple, já anunciava o fim da era flash, que não poderia lidar com a massiva diversificação de dispositivos móveis, vejamos breves trechos da carta que Steve Jobs publicou quando anunciou o fim do suporte ao Flash para iPhones, iPods e iPads titulada ”Toughts on Flash”









''O Flash foi criado durante a era do computador pessoal para PCs e mouses. O Flash é um negócio de sucesso para a Adobe, e nós podemos entender porque eles querem colocá-lo em outros lugares além de computadores. Mas a era móvel é sobre aparelhos com menos energia, interfaces de toque e padrões abertos de internet, todas áreas onde o Flash é pequeno.
A avalanche de aplicativos para aparelhos móveis da Apple demonstra que o Flash não é mais necessário para assistir a vídeos ou consumir qualquer tipo de conteúdo para web. E os 200 mil apps da App Store provam que o Flash não é necessário para dezenas de milhares de desenvolvedores criarem aplicativos com riqueza de gráficos, incluindo games.
Novos padrões abertos criados na era móvel, como o HTML5, irão triunfar em aparelhos móveis e PCs também. Talvez a Adobe devesse se focar mais em criar ótimas ferramentas HTML5 para o futuro, e menos em criticar a Apple por deixar o passado para trás.
A Apple tem muitos produtos proprietários também. Embora o sistema operacional para o iPhone, iPod e iPad seja proprietário, nós acreditamos fortemente que todas as normas relativas à web devem ser abertas”.









Essas foram razões de cunho mais filosófico de Jobs,vejamos algumas razões tecnológicas:
O Flash foi desenhado para PCs usando mouses, não para telas sensíveis ao toque. Por exemplo, muitos Websites em Flash se apoiam em “roll overs”, que abrem janelas pop-up ou outros elementos quando você posiciona o cursor sobre um lugar específico. A revolucionária interface multi-toque da Apple não usa mouse, e não há espaço para um “roll over”. A maioria dos sites que usam Flash terão de ser reescritos para se adaptar a dispositivos sensíveis ao toque.
Para conseguir fazer a bateria durar mais ao exibir vídeo, os dispositivos móveis precisam usar o hardware para decodificar o vídeo; decodificar em software requer muita energia. Muitos dos chips usados nos dispositivos móveis modernos têm um decodificador chamado H.264 – um padrão que é usado em todos os Blu-ray players e que foi adotado pela Apple, pelo Google (YouTube), Vimeo, Netflix e muitas outras companhias.
Ainda que o Flash tenha adicionado recentemente o suporte para o H.264, o vídeo em praticamente todos os sites que usam Flash depende de um decoder mais antigo, que não foi implementado nos chips móveis, e que precisar rodar no software. A diferença é gritante: num iPhone, por exemplo, vídeos em H.264 tocam por até 10 horas, enquanto vídeos decodificados via software exaurem a bateria totalmente em menos de 5 horas.
Quando os Websites re-encodam seus vídeos usando o H.264, eles podem servir o conteúdo sem usar o Flash. Eles são exibidos perfeitamente em navegadores como o Safari e o Chrome, sem precisar de plug-ins, e ficam ótimos nos iPhones, iPods e iPads”.

As vantagens de não precisar mais de softwares proprietários para animações,vídeos e áudio e todo conteúdo multimídia na web são incontáveis, agora a web está livre do atraso tecnológico que softwares proprietários, burocracias, mazelas empresariais e códigos fonte fechados provocam. Através do html5, toda a web trabalha para melhoria do acesso e uma construção de um código fonte que se atualiza diariamente em escala muito ampla, de acordo com as tecnologias mais modernas e as necessidades dos programadores e usuários, a independência da web de softwares proprietários e a modernização dos navegadores web nos levam a ver o funil tecnológico que vai desembocar nos ”Cloud OS”, sistemas operacionais em nuvem, uma forte tendência desta década. O HTML5 aliado aos desenvolvedores de browsers mais modernos é mais um possibilitador desta realidade .
Entenda o que estou dizendo nos links abaixo, recomendo ao  leitor não acessar os links abaixo antes de terminar de ler este artigo, e necessário ter um navegador moderno para visualizar corretamente o conteúdo dos links
lembrando, não que é necessário ter  programa algum instalado para visualizar os conteúdos, basta que o leitor tenha um navegador atualizado.

faça uma viagem pelo mundo HTML5







Monte o vídeo em forma de quebra-cabeça e como prêmio faça o download da musica











Atenção joguinho de biliar altamente viciante,não me responsabilizo por horas produtivas perdidas
Angry birds em HTML5?  só com o browser?

Por dentro dos sistemas operacionais









A política de escalonamento dos sistemas operacionais tem diversas funções básicas,como a de manter o processador ocupado a maior parte do tempo , balancear o uso da CPU entre processos,privilegiar a execução de aplicações  críticas, maximizar  o througput (tempo decorrido desde a system call do processo ate o final da sua execução geralmente contado em nano segundos).
A principal rotina dos sistemas operacionais que tem como principal função implementar critérios de políticas  de escalonamento é denominada (o) Escalonador de processos (Scheduler).Em sitemas multiprogramáveis, o escalonador é a ferramenta mais importante de todo sistema,pois todo compartilhamento do processador e dependente desta rotina, o escalonador pode ser considerado o gerente dos recursos do hardware,disponibilizando-os via software,via sistema operacional.
Outra rotina importante na gerência do processador é conhecida como dispatcher,responsável pela troca de contexto dos processos,após o escalonador determinar qual processo deve fazer uso do processador.O período de tempo gasto na substituição de um processo em execução por outro e denominado latência do dispatcher
Critérios de Escalonamento
As características de cada sistema operacional determinam quais são os principais aspectos para implementação de uma política de escalonamento adequada,Por exemplo, sistemas de tempo compartilhado exigem que o escalonamento  trate todos os processos de forma igual evitando, assim ,a ocorrência de starvation , ou seja que um processo fique indefinidamente esperando pela utilização do processador, ja em sistemas de tempo real , o escalonamento deve priorizar a execução de processos críticos em detrimento de outros processos, sistemas de tempo real são utilizados em situações onde a vida humana corre risco,como em veículos espacias ,aeronaves  e etc,
os sistemas operacionais mais modernos escalonam threads , e não processos, os threads são como pilhas de processos, que são separados em grupos,pelo programa que gerou o thread , um thread pode ser definido como uma linha de execução de instruções.
Ex. um processador Intel core i7-950 essa  CPU pode trabalhar com quatro processos indivisíveis simultaneamente (um em cada núcleo) ou com até oito linhas de execução (threads) — as quais podem ou não ser de um mesmo processo. Saber como cada aplicativo é executado dentro do processador não é tão simples, mas o que importa é ter noção de que existem aplicativos que serão executados de uma maneira mais satisfatória,em processadores multtask ou multi trheading do que outros que foram arquitetados para processadores single core ex: jogos antigos que ainda são jogados hoje em dia,
Explicar isso é bem simples. Suponha que estamos tratando de uma CPU com quatro núcleos. Em teoria, ela é capaz de executar quatro programas ao mesmo tempo. Contudo, você está com doze programas abertos e todos respondendo em tempo real.
O processador consegue trabalhar com todos os aplicativos e apresentar resultados satisfatórios devido à velocidade de processamento,que é em nano segundos, Sendo assim, parece que os processos são executados simultaneamente.mas na verdade estão sendo escalonados por uma política de escalonamento chamada ROUND ROBIN (escalonamento circular no caso do Ms Windows)
essa política de escalonamento tem por característica determinar uma quantidade de tempo chamada ”quantum”para cada processo ou thread acabado esse quantum, os recurso do núcleo do processador será alocado a outro processo ou thread,tudo isso em nano segundos,sendo imperceptível ao usuário.
Outra politica de escalonamento interessante é a de escalonamento por prioridades, é do tipo preemptivo com base em um valor associado a cada processo denominado ”prioridade de execução” O processo com maior prioridade no estado de pronto é sempre escolhido para a execução,e processos com valores de prioridades iguais,neste caso são escalonados pela política First in First Out ,( Primeiro a chegar primeiro a sair ) para que não haja deadlock.
No escalonamento por prioridades a perda do uso do processador ou do núcleo em questão só ocorrerá no caso de mudança voluntária do processo para o estado de espera,por ex play ou pause em uma música,ou quando um processo de prioridade maior passa para o estado de pronto
essa politica de escalonamento é usada em um famoso console, (xbox 360)e um espertinho francês sabendo disso, descobriu que para burlar o sistema de segurança bastava colocar um pendrive  com uma musica para tocar, o que ocorre nesse caso e que o sistema operacional desse console , considera que a execução do conteúdo do pendrive tem prioridade maior do que o processo que executa o verificador de segurança que sempre se encontra em espera ocupada,até que por acaso o usuário tente burla-lo ,então o recurso que estava separado para o verificador,passa a executar o conteúdo do pendrive,mantendo o processador do console ocupado e sem recursos concorrentes simultâneos para executar o verificador de segurança,simples mas inteligente,erro crasso dos engenheiros do sistema,particularmente  no caso suspeito que um deles tenha envolvimento no vazamento dessa informação,mas é só minha opinião.
Gostou? não esqueça de comentar.

Tegra 4 reinventa o conceito de HDR

Tegra 4,seis vezes superior ao tegra 3, o processador ARM mais rápido do mundo, com um fantástico poder computacional, se mostra perfeito para smartphones e tablets, e dispositivos para jogos, sistemas de informação e entretenimento e de navegação automotivos, além de computadores.









conhecido pelo codinome “Wayne”, o Tegra 4 tem 72 núcleos de GPU GeForce NVIDIA, proporcionando experiências fantásticas em jogos e em altas resoluções . Inclui ainda a primeira aplicação quad-core do núcleo de CPU de arquitetura ARM mais avançado do mundo, o Cortex-A15, proporcionando navegação na web 2,6 vezes mais rápida e performance revolucionária para aplicativos.
O Tegra 4 também habilita suporte a dados e voz 4G LTE  por meio de um chipset opcional, o processador NVIDIA Icera i500 de quinta geração. Mais eficiente e com 40% do tamanho dos modems convencionais, o i500 proporciona o quádruplo de capacidade de processamento em comparação com seu predecessor.
A grande sensação na opinião de muitos especialistas em processamento de imagens foi a revolução que o tegra 4 causou praticamente reinventando o conceito de HDR, tecnologia que tira duas fotos e depois as une em uma só.
o processamento por exemplo do iphone 5 chamado ”ultra rápido” demora 2 segundos para unir as duas fotos e no final te apresentar uma imagem hdr , o problema é quando você se mexe ou treme , neste caso 2 segundos é um tempo considerável e no final o alinhamento pixel por pixel não fica perfeito apresentando como resultado final uma imagem desalinhada.
(para melhor entendimento clique nas imagens para ampliar)




com o tegra 4 duas imagens sao caputaradas de uma vez só, explicando de uma forma mais simples, uma foto focando em profundidade e outra focando o que está mais proximo a lente assim como no iphone5 a grande diferença fica por conta do tempo de processamento que no iphone 5 como já dito é de 2 segundos, com a tecnologia HDR e a nova engine de fotografia computacional do tegra 4 esse tempo cai pra 0.2 segundos simplesmente 10 vezes mais rapido do que a tecnologia hdr convencional, com o tegra 4 as imagens sao processadas e unidas pixel por pixel tão rapidamente que ao final do disparo você ja tem uma foto em HDR perfeitamente processada e alinhada







você não precisa mais ficar se contorcendo todo para não tremer enquanto tira uma foto, e mais, agora não e mais necessário selecionar o modo HDR, com o tegra 4 o modo HDR etá sempre ativo.
Outra vantagem apresentada pelo Tegra 4 é a redução no consumo de energia, o que é possível graças à utilização da mais avançada tecnologia da arquitetura ARM e à adoção de um núcleo específico para gerir a economia da bateria. Com isso, a CPU Cortex-A15 utilizada pelo componente é capaz de proporcionar níveis recordes de desempenho e autonomia da bateria.
No processador também se encontra o PRISM 2, que reduz a luz de fundo. Ele é capaz de consumir até 45% menos energia que o Tegra 3, além de possibilitar 14 horas de reprodução de vídeo com alta definição.

veja mais sobre o tegra 4


Espantado com o tempo de processamento de  imagens de 0.2 segundos do tegra 4? aqui vai uma curiosidade para você entender quão rápido isso é
O olho humano só capta imagens com clareza em uma pequena parte, a fóvea, que tem 1 milímetro de diâmetro e fica no centro da retina. Então, para compor a  imagem que você está vendo agora, os seus olhos estão constantemente em movimento. Eles focam determinado ponto e depois pulam para o ponto seguinte. Cada um desses saltos tem duração de 0,2 segundo. Quer comprovar isso na prática? Na próxima vez em que você estiver conversando com uma pessoa, preste atenção nos olhos dela. Você irá perceber que eles se movimentam o tempo todo para escanear vários pontos do seu rosto.

O problema é que a cada pulo desses, enquanto os olhos estão se movendo para a próxima posição, o cérebro deixa de receber informação visual por 0,1 segundo. Durante esse tempo, você está cego. E, como nossos olhos fazem pelo menos 150 mil pulos todos os dias, o resultado são 4 horas diárias de cegueira involuntária. Você não percebe isso porque o cérebro preenche esses momentos com imagens artificiais, que dão a sensação de movimento contínuo. Mas que, na prática, você não viu.
Então espantosamente o que você enxerga não é o que está acontecendo no exato momento que você enxergou , e sim o que vai acontecer no futuro.. Isso acontece porque a informação captada pelos olhos não é processada imediatamente. Ela tem de passar pelo nervo óptico e só depois chega ao cérebro. O processo leva frações de segundo, e você não pode esperar – um atraso na visão pode fazer com que você seja atropelado ao atravessar a rua, por exemplo. Então, o que faz o cérebro? Inventa. Analisa os movimentos de todas as coisas e fabrica uma imagem que não é real, contendo a posição em que cada coisa deverá estar 0,2 segundo no futuro. Você não vê o que está acontecendo agora, e sim uma estimativa do que irá acontecer daqui a 0,2 segundo.
Podemos ver um lado bom nessas informações , ( ou não ver durante 0.2 segundos srsrsr) enquanto estamos cegos durante 0.2 segundos o tegra 4 já processou uma imagem hdr --'

Haswell e o dilema dos fabricantes de placa-mãe


Um relatório  da indústria de Taiwan sugere que a integração contínua de novas funcionalidades em microprocessadores fará com que alguns fabricantes de placa-mãe  saiam do mercado.
A Digitimes reportou que as características (tais como controle de fase de alimentação) que será transferido para o processador Haswell a 4 geração de processadores fabricados em 22 nanômetros da Intel, poderá levar “vários fabricantes low tier” de placas-mãe a sair do mercado no final de 2013.
É fundamental para os fabricantes de placas-mãe que eles sejam capazes de diferenciar seus produtos dos produtos concorrentes, diferenciando os recursos disponíveis em cada placa mãe, e uma estratégia que abrange mais recursos dentro do CPU vai tirar essas opções da indústria de placas. O resultado poderia ser uma concorrência que só vai acontecer em um nível de preços, o que tornaria o segmento de mercado muito menos atraente do que é hoje. Digitimes escreveu que os fabricantes de placas-mãe já mudaram seu foco e tentam se diferenciar na implementação de tecnologias melhores nas áreas como usb 3.0 e Thunderbolt, bem como as características do BIOS.
No entanto, há também a nota de que é improvavel que a Intel queira “destruir” a indústria de placas-mãe (por agora) e pode deixar a indústria viver ainda por mais três ou cinco anos. Ainda que essa expectativa esteja firmada em esperanças, como queda das taxas de rendimento causadas pela integração do northbridge e southbridge em um socket unificado.
Confira as especificações da nova linha de processadores haswell.
(clique na imagem para ampliar)











Com os novos chips gráficos integrados, a Intel pretende superar a concorrência de placas gráficas externas de baixo custo (até US$ 150 ou cerca de R$ 300), como a GeForce GTX 650M. Para conexão externa, os aceleradores gráficos devem suportar a interface Display Port 1.2, com resoluções de até 4K e até três telas independentes conectadas simultaneamente
Além dos processadores que a Intel planeja lançar aqui em poucos meses, também será apresentada a 8 série da Plataforma de chips controladores, atualmente chamado ponto de lince. O mais completo recurso da versão do ponto de lince vai incorporar seis portas SATA 6Gb / s, 14 portas USB totais (dos quais seis são USB 3.0), oito pistas de segunda geração PCIe e saída VGA.
Os chips série8 vão ser fisicamente menores do que os seus antecessores (23×22 milímetros , ao invés de 27×27) com menos pinos. Isto é em grande parte atribuível a mais recursos integrados no próprio CPU.
A nova microarquitetura Haswell implementa o recurso de transistores em 3D, assim como novos conjuntos de instruções para garantir mais velocidade de processamento, como o AVX2 (256-bit integer vectors) e o FMA, desenvolvido para dar mais desempenho em vídeo, áudio e jogos.
Para completar, todos os aceleradores gráficos devem aceitar as APIs de programação de última geração mais utilizadas, como o DirectX 11, OpenCL 1.2 e o OpenGL 4.0.
Esse tipo de chip integrado de alto desempenho demonstra que o futuro deve contemplar muito mais soluções portáteis — como os ultrabooks e tablets.

Referências e tradução livre de: Tomshadware.com, Andtech, Digitimes, intel.

SSDs SATA 3 (6 Gb/s) em sata 2 (3 Gb/s), Vale a pena o upgrade?

Os SSDs mais rápidos de hoje já batem os SATA 6Gb / s,  taxa de transferência máxima da interface,A tomshardware fez uma serie de testes sintéticos e de mundo real para avaliar as perdas de desempenho dos SSDs em plataformas sata 3Gb/s

Há muitas maneiras de ajustar um PC, mas, geralmente, a única maneira de extrair grandes ganhos de desempenho é começar a substituir hardware. O Overclock permanece popular, foi sem dúvida, a forma mais eficaz de ”Ordenhar” ganhos de desempenho em CPUs e GPUs e retrocedendo aos dias passados, Tome um Celeron 300A,como exemplo, fazendo um overclock para 450 MHz, você tinha uma freqüência  50% mais alta. atualmente isso Levaria um core i7 3770 k , aos 5,25 GHz de overclock para obter comparativamente o mesmo ganho e mesmo assim, não há nenhuma garantia de que o seu sistema iria funcionar bem e estável com o clock tão elevado.
Nós já queimamos componentes suficientes para saber que overclocking tem seus riscos, Ajustes constantes nas taxas de referência de clock, multiplicadores, voltagens e latências, podem martelar a estabilidade do seu sistema com pressa.













Uma vez que você está feliz com seu processador e placa-mãe, em busca de uma nova placa gráfica, dobrando sua memória RAM , adicionar também um SSD é uma ótima maneira para equilibrar o desempenho e manter sua máquina funcionando de forma otimizada. Hoje, nós estamos focando em armazenamento em estado sólido, que está caindo (abaixo de US $ 1/GB )em muitos casos, tornando-se economicamente mais viável do que nunca. Já dissemos isso antes e vou dizer de novo: se você não tem um SSD ainda, obtenha um. Ele vai alterar a sua percepção da capacidade de resposta.
Os SSds modernos ja alcançaram o máximo que a interface sata 3 oferece enquanto que os discos rígidos mecânicos não são muito mais rápidos do que eram há cinco anos. talvez mais importante do que muitos drives de estado sólido conseguirem atingir 550 MB / s em transferências de dados seqüenciais, seja a sua capacidade de lidar com E / S aleatória de dados, um SSD convencional pode lidar com dezenas de milhares de requisições por segundo enquanto os dispositivos de midia convencionais apenas algumas centenas.

Mas é o velho padrão SATA(2) 3Gb / s suficiente para um moderno SSD SATA(3) 6Gb / s?
Em busca de respostas, a tomshardware utilizou um 840 Pro da Samsung, conectado a uma porta de 6 Gb /s,e depois o utilizou em uma porta sata 2, apesar  do exemplar da Samsung ser uma das mais rápidas , considere estes resultados representativos para a maioria dos SSDs . tenha em mente que todos os teste foram realizados nas mesmas condições / plataforma, a unica alteração ficou por conta da troca de interface sata 3 (6gb/s) para sata 2 (3gb/s) Note também, que deixou de fora SATA 1,5 Gb / s. Teria sido bom para incluir em prol de um terceiro ponto de vista, no entanto, isso nos leva de volta a 2005, mais ou menos,e meu amigo se o seu PC é de oito anos atrás, é hora de um novo…
Optei por inserir no post apenas o comparativo mais relevante para usuários comuns / gamers, no caso o PC benchmark se você é um entusiasta clique aqui para ser redirecionado ao site e veja todos os resultados
(clique na imagem para ampliar)















surpreendentemente, a mudança é praticamente nula em termos cognitivos entre as interfaces SATA 3 (6 GB/S) e SATA 2 (3 GB/S)  ao utilizar o mesmo SSD , mas se torna gritante quando comparado á uma das unidades magnéticas mais rápidas existentes no mercado o ,Western Digital velociraptor WD 1000DHTZ DE 1 Tb
enfim podemos dizer  no ”overall”   que se você tem uma placa mãe  SATA 2  e não quer trocar de plataforma ainda, vale a pena sim um SSD conectado em SATA 2 ,podendo aumentar o desempenho do seu sistema em até 300%  além do que não será um upgrade perdido sendo reaproveitado durante toda sua vida útil.

                                                                            Fonte e tradução livre de : TomsHardware.com

thunderbolt para tablets e smartphones

Dadi Perlmutter, vice-presidente executivo e gerente geral do Grupo de Arquitetura da Intel, declarou a IDG News Service durante uma entrevista na Computex Taipei 2013 que a empresa está trabalhando em uma versão de baixo consumo de energia da interface Thunderbolt para tablets e smartphones. Se ele realmente chegará em dispositivos móveis vai depender de quão bem WiGig será adotado pelos consumidores.
“Os usuários querem Thunderbolt ou querem WiGig? Eles podem querer tanto um quanto outro. Estamos trabalhando em ambos”, disse Perlmutter.
A Intel está realmente apoiando WiGig, uma especificação liderada pela Aliança Gigabit Wireless que está focado na transmissão de dados em distâncias curtas (como um quarto). É possível transferir dados sem fio a uma taxa de até 7 Gbps,bem mais rápido que uma conexão sem fio padrão, utilizando o espectro de 60 GHz. Dispositivos que suportam a WiGig estão programados para chegar no próximo ano, e a Aliança Wi-Fi está cotada para, eventualmente, tomar as rédeas do desenvolvimento WiGig.














Atualmente smartphones e tablets suportam somente micro portas USB que se conectam a periféricos.A USB 3.0 só agora está começando a se ampliar, com o Asus Transformer Pad Infinity revelado na Computex como um dos primeiros na area móvel a fornecer uma porta 3.0 Full SuperSpeed.
A adoção do Thunderbolt em desktops e laptops tem sido supostamente lenta devido à popularidade do mais lento USB 3.0. Cabos Thunderbolt e periféricos não têm ajudado na nova taxa de tranferência  adotada, como eles são mais caros em comparação com dispositivos e cabos USB 3.0. No entanto Intel já teria dobrado a velocidade da conexão Thunderbolt a 20 Gbps, graças ao lançamento de cabos ópticos.
Em defesa de Thunderbolt, a tecnologia realmente não havia ainda começado a surgir em desktops não-Apple, até maio de 2012. Ela é um empreendimento conjunto entre a Intel e Apple, e fez sua primeira aparição no MacBook Pro em 2011. Ele usa o mesmo conector, Mini DisplayPort, e combina PCI Express (PCIe) e DisplayPort (DP), em um sinal de série ao lado de uma conexão DC para energia elétrica, que é transmitida através de um único cabo.
Thunderbolt é capaz de até 10 Gbps por canal em ambas as direções, e até sete periféricos compatíveis podem ser interligados através de um conector Thunderbolt.A Intel afirma que os usuários podem transferir um filme em HD completo em menos de 30 segundos, e backup de 1 ano de reprodução de MP3 contínua em pouco mais de 10 minutos.
“Veremos qual irá sair ganhando”, diz Perlmutter.
                                                                                                   
Fontes e tradução livre de IDG News Service, Computex Taipei , Tomshardware.

quarta-feira, 18 de dezembro de 2013

ASMedia Tecnology e o novo padrão usb 3.5

A ASMedia Tecnology começou a desenvolver o novo padrão USB 3.5 e chips controladores de dispositivos com disponibilidade prevista para 2014, de acordo com o presidente da empresa Chewei Lin.
Com velocidades de transmissão de 10 Gb/s  comparáveis aos de Thunderbolt, mas disponível a preços mais acessíveis, os chips controladores USB 3.5 terão mais oportunidades no mercado, especialmente para aplicações em SSD’s, Lin afirmou.
















Enquanto isso, a terceira geração do ASMedia USB 3.0 para SATA, o ASM1153, foi verificado pela USB-IF, e a empresa vai começar a entregar as amostras para os clientes no terceiro trimestre, com o volume de embarques programados para o quarto, disse a companhia. O Semiconductor ASM1153 é de fabricação da “Taiwan Semiconductor Manufacturing Company” (TSMC), utilizando um processo de 85nm.
ASMedia também desembarcou mais encomendas para os seus chips controladores 3,0 e hubs USB para a maioria dos fabricantes de placas-mãe, impulsionados pelos CPUs Intel Haswell, disse a empresa, acrescentando que espera que suas encomendas de controladores de USB 3.0 chegue a mais de 100 mil unidades por mês no terceiro trimestre .
Os relatórios de demanda relacionadas com PC,demonstram que vendas de chips incluindo PCI Express e de chips controladores, atualmente correspondem de 60-65% das vendas totais da ASMedia, enquanto dispositivos de controlador USB 3.0 compõem 35-40%.

Fonte: Digitimes