↖️  Experimente a Novidade, ative o menu de navegação e tenha o conteúdo completo do Avis Ara

segunda-feira, 7 de dezembro de 2015

Sabedoria!

A sabedoria só vem com o tempo... 
Até lá é só teoria!

domingo, 6 de dezembro de 2015

Worldwide Hosted Private Cloud Services Forecast, 2015–2019 | Haji Aref | LinkedIn

Worldwide Hosted Private Cloud Services Forecast, 2015–2019 | Haji Aref | LinkedIn

Worldwide Hosted Private Cloud Services Forecast, 2015–2019

On-Demand Hosted Private Cloud
Drivers
Economics, Time to Deploy, and Industry Momentum Favor ODHPC
Assumption: ODHPC activity will rise to over 50% of cloud IaaS spend by 2016 as choice among providers grows and customers begin moving second-tier steady state workloads to cloud infrastructure. Over time, we believe that the growth rate in ODHPC will be higher as companies become more comfortable with multitenancy and providers actively push ODHPC services as competitively priced, easily provisionable options. DHPC will grow at a slightly more modest rate, particularly as a "bridge" model for traditional hosting and IT outsourcing customers looking to transition to cloud but not ready for ODHPC.
Impact: ODHPC is only a portion of the public cloud IaaS market at present but will increasingly become the default option as service providers develop and refine solutions, thus blurring the heretofore clear distinctions between "public" and "private" by providing the security, privacy, and control features of dedicated hosted private clouds on top of multitenanted public cloud delivery platforms.
Differentiated Audience Will Broaden the Buyer Base of ODHPC
Assumption: While DHPC resonates primarily with large firms, IDC views ODHPC (like public IaaS generally) playing across the entire spectrum. While large IT outsourcers have focused on DHPC as a natural extension to their business models, public IaaS operators are promoting ODHPC as a more efficient HPC alternative with the infrastructure, tools, contracts, billing, and account management characteristics of public cloud. Primary buyers for ODHPC include director-level IT development and IT operations staff as well as business unit and application development personnel in companies of all sizes.
Impact: The adoption of cloud solutions outside of IT operations continues to shift the focus of who the customer is. As line-of-business staff and developers embrace the enhanced security, performance, and control features of ODHPC, adoption will expand accordingly. In addition, as larger companies with sophisticated IT sourcing and management systems begin to centralize cloud-sourced capabilities, ODHPC, like public cloud IaaS, becomes part of the overall IT mix.
Inhibitors
Targeted DHPC Product Development and Marketing by Technology Vendors and Incumbent Service Providers
Assumption: The large incumbent hosting infrastructure and IT outsourcing providers will aggressively promote their DHPC offerings over their own or white-labeled ODHPC solutions, particularly for internal IT-focused enterprise "lift and shift" workloads and as part of datacenter rationalization strategies.
Impact: DHPC services may offer a lower-cost basis in situations such as VM or database sprawl reduction where security and control considerations may be paramount and where there is sufficient demand to justify the capacity of dedicated systems. In addition, technology vendors such as HP, Cisco, and Dell are highlighting OpenStack-based private cloud solutions to both enterprises and service providers — which could stimulate interest in on-premise/off-premise federated private cloud solutions.
Incumbent Providers and Cultural Factors Favor DHPC Outside the United States
Assumption: The ODHPC market will ramp more slowly outside the United States, particularly in EMEA and Latin America.
Impact: National/regional service providers outside North America are ramping up their product development and marketing efforts on the ODHPC front, but there are still some areas where governance, data residency, and other concerns inhibit adoption of multitenant public cloud services.

Dedicated Hosted Private Cloud
Drivers
Hybrid IT Environments
Assumption: There will be few "pure" public cloud or private cloud suppliers and offerings. Hybrid portfolios — with options for hosted (off-premise) and on-premise private clouds and external public clouds — will be the rule. As such, enterprises are beginning to view IT deployment models (both cloud and noncloud) as a continuum of choice, not as an either/or decision.
Impact: The emergence of a variety of IT cloud services — including public, private, and hybrid — gives IT shops greater flexibility in adopting the cloud model and matching the right offerings and models to specific application/workload requirements, security/compliance considerations, and overall levels of comfort with cloud technology and/or cloud service providers. This means that "going cloud" is not an all-or-nothing choice but can be a selective, gradual process.

Transition from Traditional Managed Hosting and IT Outsourcing
Assumption: Long-standing public cloud adoption inhibitors — security issues, performance and availability concerns, compliance regulations, and data sovereignty mandates — will be mitigated by DHPC services that provide many of the public cloud advantages — faster provisioning, greater agility, and transition from capex to opex technology procurement — without the perceived risks. Furthermore, the traditional managed hosting and IT outsourcing drivers remain in play for DHPC — the "opex not capex" value proposition and attractive positioning vis-a-vis DIY/in-house IT, access to IT skills/expertise, disaster recovery/business continuity, and improved performance.
Impact: DHPC will expand as this off-premises private cloud model becomes a larger part of the operational mix for enterprises with legacy applications that they simply want to "lift and shift" from on-premise datacenters and traditional managed hosting and IT outsourcing contracts. The productization efforts of the key players in the IT outsourcing and managed hosting markets (IBM, Rackspace, CSC, Dimension Data, and Fujitsu) and the service provider enablement initiatives (and acquisition activity) of trusted-brand IT vendors (Cisco, HP, Dell, Microsoft, EMC VMware, and Oracle) will ease the transition. DHPC is transforming from fully customized services built and provided based on customer requirements to standardized products and services based on a vendor's best practices.

As integrated systems and standard models are becoming increasingly important in on-premise private clouds and dedicated private clouds, "inside out" cloud bursting, disaster recovery, and distributed application deployments will emerge as more common DHPC scenarios.
Inhibitors
Vendor Lock-In Concerns and Insufficiently Open Ecosystems
Assumption: DHPC vendors may pursue proprietary stack-oriented approaches to private cloud that lack integration with a diverse ecosystem of management platforms, tools, and public cloud infrastructure alternatives.
Impact: The market growth will stall as enterprises hesitate about making the transition to a new IT model that is not sufficiently "cloudy" IT. However, IDC believes that the growing momentum of OpenStack in the private cloud arena (and service providers' growing embrace of it) will encourage adoption of DHPC for net-new steady state application/workload deployments.

Pricing Models
Assumption: Service provider pricing models for DHPC continue to align with the highly customized approach of traditional managed hosting and IT outsourcing.
Impact: Demand will stagnate or decline given that the bare metal ODHPC alternatives provide the security and isolation of DHPC at a more attractive price point and with cloudlike provisioning capabilities. However, highly productized offerings (IBM's Blue Box Cloud is one example) could close the gap with ODHPC by providing a compelling value proposition around solutions for steady state production environments with predictable pricing and add-on capacity scaling options.

The Right Cloud Can Support Application On-Boarding

To take advantage of cloud computing as part of an application upgrade, enterprises should seek a provider able to offer:

  • Enterprise Application Support: Traditionally architected enterprise applications present a variety of unique infrastructure and performance requirements. An enterprise-class cloud provider will offer a service tailored to meet these needs based on enterprise-class infrastructure and best practices.
  • Migration Services: Migrating existing applications to cloud demands significant requirements collection and a cohesive migration strategy. Your cloud provider should offer these services to help ensure the success of your migration.
  • Enterprise Success Stories: Any provider can trot out a list of customers, but are those customers representative of your own business and its needs? The right cloud provider for your existing application migration effort should have extensive experience helping like enterprises with similar projects.
  • Application-level SLAs: The reason a legacy application is still around is because the business still depends on it, and applications that the business depends on must deliver adequate levels of performance and availability. Enterprises should demand application-level SLAs when migrating existing applications to a cloud environment.

Enterprise Class Cloud for Software and Hardware Refresh

Virtustream's Enterprise Class Cloud solution, powered by xStream™ Cloud Management, offers the first truly enterprise-ready cloud solution that is both secure and compliant. Virtustream's enterprise-class cloud solution was built from the ground up to achieve the performance and reliability required to host enterprise applications.
Virtustream is well suited to assist with the migration of your enterprise applications to the cloud. Virtustream delivers:

  • A Cloud Built for Enterprise Applications: Virtustream's Enterprise Class Cloud is built from the ground up to support enterprise applications. Featuring the proven VMware ESX hypervisor and enterprise-grade storage and networking infrastructure, Virtustream easily supports enterprise applications like SAP, Oracle and Microsoft right out of the box.
  • Full Suite of Professional Services: Virtustream offers a full complement of cloud strategy and implementation services. We partner with your organization to provide expertise in selecting a cloud strategy, simplifying migration and accelerating adoption.
  • Successful Enterprise Customers: With brand-name customer success stories by major brands such as Goodyear, SAP, Domino Sugar and Yum foods, Virtustream has the experience to ensure the success of your cloud migration.
  • Application-Level SLAs: Up to 99.999% uptime SLAs for applications ensures that your business can depend on legacy applications running in the Virtustream cloud.


Enviado do meu iPhone

sexta-feira, 4 de dezembro de 2015

Storage - Escassez de Armazemanto Digital

Data Storage on DNA Can Keep It Safe for Centuries - NYTimes.com

A evolução das tecnologias IoT, Cloud, Big Data direciona o mundo para uma sociedade com escassez de meios de armazenamentos digitais.

Esta escassez, naturalmente, obriga a busca de novos meios, ou formas diferentes para suprir a demanda monstruosa que estão por vir.

Entendo que muitos vem trilhando o caminho para a solução, ou até mesmo para mudança dos conceitos de armazenamento. 

Qual (quais) será a solução que marcará timeline da inovação com a marca separando o mundo antes e depois dela ? 

Quem será o todo poderoso que entregará uma solução com longevidade e acessível a todos ?

Particularmente aposto no armazenamento em moléculas de DNA (sintéticas ou não) com sendo uma dessas tecnologias que irão fazer a diferença.

Tudo isso será parte do nosso dia a dia, tal como é um pendrive, um smartphone e foram o CDs, DVD e disquetes... Veja um pouco da história, acesse  http://avisara.blogspot.com.br/2015/11/midias-de-armazenamento-50-anos-de.html?m=1

A evolução dos meios de armazenamento e preservação da informação nos levará a um novo mundo de possibilidades e oportunidades. Oportunidade de Soluções para demandas que hoje ainda não existe e não foram nem imaginadas.

A demanda por armazenamento será monstruosa, veja em http://avisara.blogspot.com/2015/11/iot-e-cloud-internet-das-coisas-decola.html e, enquanto isso não chega, as restrições continuarão e a escassez precisara ser atendida.

 Se vc tem  HD, pendrives e etc em casa?  Não se desfaçam deles......

Leiam a matéria abaixo e tirem suas conclusões (disponível originalmente em http://www.nytimes.com/2015/12/04/science/data-storage-on-dna-can-keep-it-safe-for-centuries.html?_r=2 )

Segue, bom proveito!


Data Storage on DNA Can Keep It Safe for Centuries

SEATTLE — Computer data has been depicted as microscopic magnetic smudges, electric charges and even Lilliputian patterns of dots that reflect laser beams. It may ultimately move into the fabric of life itself — encoded in the organic molecules that are strung together like pearls to form strands of DNA.


In two recent experiments, a team of computer scientists at the University of Washington and Microsoft, and a separate group at the University of Illinois, have shown that DNA molecules can be the basis for an archival storage system potentially capable of storing all of the world's digital information in roughly nine liters of solution, about the amount of liquid in a case of wine.

The new research demonstrates that specific digital files can be retrieved from a potentially vast pool of data. The new storage technology would also be capable of keeping immense amounts of information safely for a millennium or longer, researchers said.

It would also address a glaring Achilles' heel at the heart of microelectronic data storage systems: Magnetic disks, tape and even optical storage systems safely store information at most for only a handful of decades.

The recent advances suggest there may be a new way to store the exploding amount of computer data for centuries rather than decades.

The raw storage capacity of DNA is staggering compared with even the most advanced electronic or magnetic storage systems. It is theoretically possible to store an exabyte of information, if it were coded into DNA, in the volume of a grain of sand. An exabyte is roughly equivalent to 200 million DVDs.

In nature, DNA molecules carry the genetic instructions that govern the development and function of living organisms. The cost of sequencing or "reading" the genetic code is falling faster than the cost of computer memory, and technologists are beginning to make progress in their ability to more rapidly synthesize strands composed of arbitrary sequences of the small organic molecules known as oligonucleotides, the basic DNA building blocks.

Computer scientists say they believe that as costs of sequencing and creating synthetic DNA continue to fall, it will soon be possible to create a new class of hybrid storage systems.

"In the last year, it suddenly hit us that this fusion of computer technology and biology will be where future advances come from," said Douglas M. Carmean, a Microsoft researcher who had been a leading designer of microprocessor chips at Intel.

The evolution of the two fields dates back to the start of interactive computing. The first true personal computer, known as the LINC, was designed by Wesley A. Clark in 1961 for biomedical researchers.

"Information technology has helped biotech in the past," said Luis Ceze, a University of Washington computer scientist and one of the designers of the new DNA storage system. "Now biotech has to pay back."

Early signs of a possible convergence of computing and biology can be found in a visit to a cramped laboratory in the basement of the Paul G. Allen Center for Computer Science & Engineering on the University of Washington campus.

It is crammed with equipment more readily found in a biology laboratory — a desktop DNA sequencing system and a separate machine that is used to amplify fragments of DNA by making billions of precise copies.

Together, the two machines form a prototype of a data-archiving approach that could spread more widely as soon as five years from now. The researchers note that it could be used by Hollywood studios and modern hospitals that need long-term storage for digitized movies as well as X-ray and M.R.I. images.

Previous experiments performed by scientists at European Bioinformatics Institute in Hinxton, England, in 2013, and in 2012 at Harvard, showed that it was possible to store data files in DNA and then read the information back in digital form. The Harvard group received international attention for storing billions of copies of Regenesis, a book written by the Harvard geneticist George Church and Ed Regis.

The research teams from the University of Illinois, and the University of Washington and Microsoft, have built on that work by storing information in DNA form and then retrieving a specific file from the data. The Illinois scientists were able to encode parts of the Wikipedia pages of six universities, and then select and edit parts of the text written in DNA corresponding to three of the colleges.

The University of Washington and Microsoft researchers decided that because of the vast potential storage capacity of DNA, it would be better used for simply storing data rather than rewriting it. They were able to store four small image files and then retrieve them independently with just a single error.

Computer storage systems resemble cities with precise street addresses where data can be retrieved. With DNA storage, the scientists exploit the self-assembly nature of biological molecules that encode information. The basic function of DNA, replication in living organisms, is essential for life.

A digitized picture, for example, might be broken into thousands of pieces that are in turn mapped into thousands of individual strands of DNA. When they encode the information, the researchers add a unique identifier that makes it possible to later reassemble the complete picture or file, like putting together a jigsaw puzzle.

The scientists use the ability to amplify specific DNA strands rapidly and efficiently using a technique known as "polymerase chain reaction," or P.C.R., to make it easier to find the information they wish to retrieve. Invented by the chemist Kary Mullis in 1983, P.C.R. makes it possible to amplify a single copy of a DNA molecule into millions of copies of a single sequence.

In addition to refining the computerized reassembly techniques, the research groups are continuing to work on improving the basic storage technology.

"We have scaled up our 2012 work about a hundredfold," Dr. Church said. His laboratory is working in collaboration with Technicolor S.A., a French company that has a large business in digital data and film archiving. "The big issue is lowering the cost by another thousandfold, which is our current focus," he added.

The Harvard laboratory is trying to encode and retrieve "A Trip to the Moon," a 1902 French silent film.

The University of Washington and Microsoft researchers have partnered with Twist Bioscience, a San Francisco start-up that has developed a semiconductor-based system that accelerates the production of custom DNA strands in which digital data can be encoded.

The scientists acknowledge that their current bottleneck is in the ability to write the information in DNA, but they say they expect that technology to begin to improve rapidly.

"It is absolutely about the technology and miniaturizing the scale of the reaction" used to create synthetic DNA, said Emily Leproust, the chief of Twist.

Currently, it takes just seconds to store or retrieve data using magnetic tape cartridges — widely used by corporate computing centers to keep archival copies. But the cartridges themselves are often stored on shelves or in elaborate robotic retrieval systems; retrieving them and putting the data online for access can take hours.

The cost and speed of encoding digital information in DNA will soon come down by several orders of magnitude, said Dr. Leproust, making it competitive with magnetic storage.

Although it is snaillike in retrieval speed compared with electronic and magnetic memory, DNA will be far better in terms of the scale of the data it can store and the time scale.

"DNA is a remarkable media for long-term storage," said Karin Strauss, a Microsoft computer architect. "All you have to do is keep it cold and dry."

Correction: December 3, 2015

An earlier version of a picture caption with this article misidentified the employer and current job of Douglas Carmean. He designs computers at Microsoft, no longer microprocessor chips at Intel.



Enviado do meu iPhone

segunda-feira, 30 de novembro de 2015

Infraestrutura em cloud: vale a pena ter a minha?

Infraestrutura em cloud: vale a pena ter a minha?
Vale a pena a leitura.

Infraestrutura em cloud: vale a pena ter a minha?

Diante de um mercado que exige cada vez mais agilidade no processamento de informações e de um cenário econômico que demanda uma séria revisão nos orçamentos, uma tendência global tem repercutido no Brasil, a adoção de soluções de infraestrutura como serviço (IaaS) – um dos modelos de computação em nuvem – e a redução de compra de equipamentos de porte médio. 


Apesar disso, é comum ouvir duas perguntas a respeito dessa nova plataforma: "Será que devo investir em cloud?" e "Como implantar uma infraestrutura de acordo com as necessidades do meu negócio?".

 

Antes de refletir sobre esses pontos, é importante considerar o comportamento do mercado em relação à tendência. Uma pesquisa divulgada em maio pelo Gartner aponta que os investimentos com IaaS devem atingir, até o final deste ano, a marca dos US$ 16,5 bilhões. Isso demonstra o interesse crescente das organizações pela tecnologia e os benefícios que traz: manter estruturas, dados e um alto volume de aplicações em segurança, com flexibilidade e escalabilidade.

 

Diante das vantagens em adotar a nuvem como infraestrutura e reflexo desse elevado interesse por parte do mercado, empresas dos mais variados segmentos já têm optado por reduzir os altos custos de manutenção e de atualização do ambiente físico de TI. Nesse sentido, o movimento que tenho notado é que tais empresas utilizam seus ambientes físicos até se tornarem obsoletos enquanto começam, gradativamente, a migrar seus bancos de dados e aplicações para a cloud. Escalável e flexível, a solução permite que as empresas utilizem apenas as funcionalidades que precisam, reduzindo assim, gastos desnecessários que sistemas totalmente internos podem implicar no orçamento.

 

Outro ponto positivo é permitir à empresa que foque sua energia e recursos no negócio em si, deixando a complexidade do ambiente de TI a cargo do fornecedor responsável por garantir seu bom funcionamento. Ainda, a adoção de uma plataforma cloud não implica que a companhia abandone a infraestrutura existente, sendo possível operar o sistema de maneira híbrida. Isso possibilita, por exemplo, que financeiras rodem seus sistemas internos em ambientes físicos e, simultaneamente, serviços ao cliente pela internet por meio da cloud.

 

No Brasil, alguns tabus que rondam a adoção de cloud computing ainda existem e precisam ser quebrados, como a ideia de que os dados não estão seguros. É evidente que a escolha pelo fornecedor deve ser feita levando em consideração itens como a credibilidade e qualidade de entrega da companhia, bem como o alto nível de confidencialidade que ela demanda de seus colaboradores. De todo modo, hospedar um ambiente de TI na nuvem pode ser muito mais seguro do que manter os dados em hardwares internos, alvo mais vulnerável a ataques cibernéticos.

 

Por tudo isso, afirmo que vale a pena ter uma infraestrutura em cloud. Para implantar a solução mais aderente ao negócio, é preciso considerar alguns pontos. O primeiro deles é olhar para dentro de casa e avaliar qual é a infraestrutura existente e o quanto ela pode ser utilizada sem a necessidade de reinvestimento. Isso feito, investimentos sob demanda na cloud podem ser realizados à medida que novas aplicações e serviços vão surgindo. O segundo é analisar para onde caminha a necessidade de seu cliente e se seu negócio está preparado para acompanhar essas tendências. Exemplo disso é a possibilidade de surgimento de novas demandas, como suportar uma solução de big data ou de Internet das Coisas, ambas já disponíveis em nuvem e que exigem infraestrutura especializada, cara e complexa demais para a implementação interna. 

 

Ao optar por um fornecedor, é importante considerar alguém que não se preocupe apenas em vender uma plataforma, mas sim, que auxilie no processo de decisão dos serviços a serem adotados. Dessa forma, empresas que não têm em seu core business a necessidade de uma equipe de TI dedicada podem ter "um sono tranquilo", com a garantia de que seu negócio conta com o serviço ideal para o bom funcionamento de suas operações.

 

Por fim, acompanhar as tendências tecnológicas e implantá-las garante estar sempre um passo à frente da concorrência. Nesse sentido, a computação em nuvem já é uma realidade sendo, atualmente, a plataforma mais escalável e flexível do mercado. A cloud proporciona um universo de soluções e experiências cada vez mais afinadas com o futuro.

 

*Antonio Carlos Guimarães é evangelista de cloud da Fujitsu do Brasil



Enviado do meu iPhone

sábado, 28 de novembro de 2015

Capa de livro

No facebook apareceu uma publicação que fiz no ano passado, neste mesmo dia, que acho adequado publicar para relembrar... 

Lamentável, mas o tema sempre será atual.

Segue:

Mesmo que outros coloquem a capa do livro que conta sua história, seus resultados, como é comum acontecer, tanto os outros como vc sabe quem escreveu e fez a história é sua.... 

Relaxa, a capa é a primeira página que se deixa para trás ! 

Já a história continuará  sendo escrita e só vc saberá escrevê-la.




domingo, 22 de novembro de 2015

Guerra virtual: site mostra em tempo real todos os ataques hackers pelo mundo

Guerra virtual: site mostra em tempo real todos os ataques hackers pelo mundo - InfoMoney
Vale a pena a leitura post publicado originalmente pelo InfoMoney em:

Guerra virtual: site mostra em tempo real todos os ataques hackers pelo mundo

SÃO PAULO - Não chega a ser novidade, mas em um mundo onde a tecnologia impera e as relações se tornam cada vez mais digitais, fica difícila para as pessoas terem alguam noção do que está acontecendo ao nosso redor, mesmo que não seja fisicamente. Nos últimos dias, o grupo hacker Anonymous declarou guerra contra o Estado Islâmico após os ataques na França. Mas este conflito não é nem um pouco novo, e está acontecendo bem na sua frente.
Para o ser humano, é muito complicado imaginar - ou quantificar - as informações sobre o mundo digital, seja o quanto representa um Petabyte (são 1.000.000.000.000.000 bytes), ou o número de sites que existem na internet hoje (segundo o Internet Live Stats são quase 1 bilhão de sites), imagine então sobre os atackes hackers que estão ocorrendo. E para isso, a NorseCorp criou um mapa mostrando os ataques cibernéticos que estão sendo realizados.
A companhia, que cria softwares de segurança, colocou em uma página um mapa mostrando de onde estão saindo os ataques hackers, quais os alvos, e algumas informações mais detalhadas como IP de onde saiu o ataque. É importante destacar que acabar com isso não é tão simples, já que mesmo sabendo destas informações, provavelmente os hackers que estão por trás estão articulando os ataques de outros locais.
Saber os países de onde estes ataques estão sendo realizados também ajuda a compreender as nações que estariam "sustentando" este tipo de guerra, já que é preciso ter servidores e outros equipamentos para que, pelo menos, você consiga mascarar seu IP em outro país. Para conferir o site, clique aqui e depois clique em "live attacks"
Avalie essa notícia:
Enviado do meu iPhone

sexta-feira, 20 de novembro de 2015

Data center - Principais tendências

Top data center industry trends of 2016

Vale a pena a leitura.

Alguns pontos de destaques:

...Geografia importa mais do que nunca...

...no futuro, 60% a 65% dos ativos de TI estará fora do local e da equipe de TI...

...ser capaz de mover ativos e dados para novas instalações rapidamente...

...terá de acompanhar a gestão dos Data Center distribuídos não gerenciados pelo meu próprio povo...

...Data Center diferentes e diferentes infra-estruturas irá forçar a encontrar novas ferramentas para monitorar a segurança e desempenho...

...Convergência e infraestrutura definida por software e são outras tendências da indústria de Data Center

Top data center industry trends of 2016

The future data center will continue to be hybrid -- not just part of a hybrid cloud.

Coordinating a vast landscape of people and infrastructure will soon be a regular part of data center managers' jobs, one of the many changes predicted by IDC for 2016 and beyond.

In its latest FutureScape look at data center industry trends, analyst firm IDC in Framingham, Mass., said that planning the location of data center resources will become a "critical requirement" while maintaining control over the staff to manage it all.

"Geography matters more than ever -- where you place these data center assets," said Richard Villars, vice president of data center and cloud at IDC, and one of the authors of the Worldwide Data Center 2016 Predictions report.

The location of customers, business activity and plans to expand to new geography will increasingly influence data center decisions, he said.

Hybrid IT is the management of various environments in various locations, often run by a combination of staff and outsourced workers, Villars said.

"For many companies, the past three to four years have been the trip to the hybrid cloud," Villars said. "The next three to four years are about moving to a hybrid IT world."

PRO+

Content

That new hybrid IT world will involve diverse assets in an enterprise's own data center, as well as third-party data centers.

"How do we change the role of the data center team and IT team?" Villars said. In the past, data center managers have focused on buying equipment, plus managing facilities and equipment in their own data center and third-party data centers. But in the future, 60% to 65% of IT assets will be off-site and the IT staff will need to manage all of it, he said.

"You'll have to continue to refine your data center selection, governance and performances processes," Villars said. Data center teams will take on new jobs and need to evaluate partners, as well as provide consistent management and security across all internal and external access points, he said.

Those internal data center teams must find providers that offer more than facilities and equipment, but have "transformative" teams with various skills, including software developers.

One of the most challenging data center industry trends will be the monitoring needed for data centers around the globe, said Frank Wichlac, vice president at Acxiom IT in Downers Grove, Ill.

"It isn't just one location anymore, it is all over," Wichlac said. "It is not your building, it is everything that brings IT together and you have to take responsibility for all of it."

An inside-outside world

Data center managers will also need to bring together the people running their data centers, whether it is staff or outside vendors.

Outside companies will provide some of those management and configuration tasks, Villars said. The challenge for IT organizations will be to manage multiple data centers with multiple sources of staff.

As more companies rely on service providers for staffing, data center managers will increasingly face the job of managing the movement and security of data -- whether it is on premises or off premises.

"Your staff and the staff your partners provide to help deliver new service and new capabilities ... [are] increasingly critical," Villars said.

The job of data center staff at enterprises will be to organize and synchronize people to make sure all teams are functioning and performing efficiently, he said.

Agile has long been a term associated with software development, but it will soon become an equally important quality in the data center, too, Villars said. Agility for the data center will mean being able to move assets and data into new facilities quickly, and also getting the financing in place.

The new data center environment will soon take center stage, said Adrian Nowik, technology manager at Pan American Energy in Buenos Aires, Argentina.

I will need to monitor the management of distributed data centers not managed by my own people; I will need to pay more attention to that.
Adrian Nowiktechnology manager, Pan American Energy

"I will need to monitor the management of distributed data centers not managed by my own people; I will need to pay more attention to that," he said.

Different data centers and different infrastructures will also force Nowik to find new tools to monitor security and performance.

Convergence and software-defined infrastructure are other data center industry trends that will also become "more critical," and the move toward it must happen faster, Villars said.

Some of the new hyper-converged offerings in 2016 and 2017 will drive data center consolidation for the data center and its staff. Hyper-converged and software-defined infrastructure will accelerate the use of managed services to do basic administration and configuration, as well as shift staff time toward "value-added business services" and managing all the data that is being created.

"This has major consequences for data center facilities and data center deployment," Villars said.

Data center staff will need to be more aggressive about automating discovery, provisioning and location tasks, he said.

"We can't rely on individuals walking through the building looking for space and power," he said. "We need systems to be self-identifying and self-discovering."

  • Robert Gates asks:

Data center ideas that got lost in translation



Enviado do meu iPhone

Mídias de armazenamento: 50 anos de história

Mídias de armazenamento: 50 anos de história - TecMundo

Um pouco de história...

Vale a pena a leitura.


Mídias de armazenamento: 50 anos de história

Você já parou para pensar no que poderia ser armazenado em um disco rígido de 5 MB? Uma música? Alguns textos? Nada muito importante. Sim, é difícil imaginar a vida cotidiana sem pensar em gigabytes e terabytes, mas há 50 anos, era assim que o mundo da informática vivia: baseado em 5 megabytes de espaço em disco.
 
O ano exato era 1956 e a IBM havia acabado de lançar o então moderníssimo IBM 305 RAMAC, um computador nada portátil que pesava algo em torno de 1 tonelada (1000 Kg). De lá para cá, muita coisa mudou, é óbvio, e o que o usuário mais tem percebido – mesmo analisando apenas os últimos dez anos – é a relação inversamente proporcional entre tamanho e capacidade.

Agora o portal Baixaki traz ao usuário algumas informações muito interessantes acerca da história das mídias de armazenamento, tanto no campo musical, quanto nos campos fotográfico e digital, relembrando os principais dispositivos criados para o carregamento de dados e também algumas curiosidades sobre esses elementos tecnológicos.

A História do armazenamento

Da cera ao iPod...
Hoje é difícil conhecer alguém que não possua um MP3 player ou qualquer outro reprodutor digital de mídias: 2 GB, 4 GB...Isso parece pouco em alguns momentos, as mídias armazenam horas e mais horas de canções sem repetições, mas isso nem sempre foi assim, há muito tempo a história era bem diferente.

Um dos primeiros formatos de mídia musical, o cilindro fonográfico, inventado por Thomas Edison, era composto de estanho e podia ser reproduzido apenas três ou quatro vezes. Devido à pouca durabilidade foi criado um outro cilindro, de cera, que durava mais e possuía maior qualidade.

Os saudosos discos de vinilEm 1895, os cilindros foram substituídos por discos de goma-laca, que eram tocados em 78 rotações, possuíam mais potência sonora e armazenava até 44 minutos de músicas.

Já no século XX, na década de 30, foi criado o sistema de gravação em bobinas, ou fitas de rolo, ou seja, fitas plásticas que podiam guardar os áudios de maneira eficiente para a época. Tendo em média 16 cm de diâmetro, as bobines foram inspiração para a posterior fita cassete, que tinha a grande vantagem de ser extremamente portátil e podia tocar até uma hora inteira.


Dos discos que passaram a ser produzidos em vinil até as fitas magnéticas, muito tempo passou, até que em 1982 os primeiros CDs começaram a ser comercializados. Eles possuíam a vantagem de serem gravados digitalmente, possibilitando melhores equalizações e, por consequência, maior qualidade na reprodução, que chegava a 80 minutos.

Hoje, o que impera no mundo da música é o iPod (e alguns outros tocadores de mídia digital), pois a capacidade de armazenamento é gigantescamente superior. Um iPod de 120 GB pode guardar o tempo de reprodução equivalente ao de 3829 discos de vinil; 3663 minidiscs; 2808 fitas cassete ou 2106 CDs.
Das câmeras instantâneas ao cartão de memória...
No século XX houve a expansão dos mercados consumidores e as câmeras fotográficas começaram a fazer parte da vida cotidiana de muitas pessoas, mesmo das que não faziam parte da elite. Logicamente o sucesso não foi algo rápido, sendo gradativamente alcançado. Durante anos, as câmeras de foto instantânea imperaram no imaginário popular, até que as primeiras câmeras com filme de revelação posterior foram lançadas.

A maioria dos filmes podia armazenar entre 12 e 36 fotos que, em seguida, seriam reveladas e lotariam os álbuns fotográficos que suportavam cerca de 100 fotos e ocupavam algo em torno de 800 cm³ nos armários das famílias.

Álbuns de fotos

Se esses álbuns forem comparados aos primeiros disquetes, já se pode começar a perceber o quanto a digitalização facilitou o armazenamento das fotografias, pois um disquete de 3,5 polegadas poderia guardar até 50 fotos em baixa resolução.

Isso era só o começo, afinal um disquete tinha capacidade de apenas 1,44 MB. Já pensando em mídias mais modernas, como flash drives e cartões de memória, acoplados às câmeras digitais que já não são mais alimentadas por filmes químicos, e sim por memória eletrônica, a comparação parece ainda mais absurda.

Um cartão de memória SD (Secure Digital) ou mSD (Micro Secure Digital) pode chegar a armazenar até 4000 fotos nos 2 GB de memória interna, sem chegar a ocupar espaço físico significativo.

Pensando em uma unidade de armazenamento de 120 GB, o acervo de fotografias poderia chegar a 31 mil fotos, ou então a um disco rígido de 2 Terabytes, em que 680 mil fotos poderiam ser guardadas, o equivalente a 6800 álbuns de fotografias; 28 mil filmes e mais de 1 milhão de disquetes.Do RAMAC ao pendrive...
Como contado no início do artigo, há pouco mais de 50 anos eram necessários computadores de mais de uma tonelada para que o armazenamento de 5 MB fosse possível. O tempo passou, os computadores foram diminuindo e as capacidades aumentando de maneira inversamente proporcional.

Já foram lançados discos rígidos de 200 MB a 2 TB e não param de surgir novos modelos. É difícil imaginar o que seria dos usuários hoje, com menos de 80 GB, assim como é impossível pensar em como seria o mundo da informática de 50 anos atrás, se já houvesse a memória de terabytes.

Discos rígidos

Mas talvez o maior trunfo já atingido pela indústria da informática esteja na mídia portátil. Assim como nos dispositivos fixos, os avanços tecnológicos nos armazenadores portáteis diminuíram as dimensões e aumentaram exponencialmente as capacidades de memória.

Até os anos 80, o famoso "disquetão" de 5,25 polegadas e 1,2 MB era o mais usado para transportar dados de um computador a outro. Pouco tempo depois foi lançado o disquete de 3,5 polegadas e 1,44 MB, que tinha mais vantagem pela estabilidade (os "disquetões" estragavam com uma facilidade incrível) do que pela memória em si.

O tempo passou e os computadores pessoais passaram a ser vendidos com drives leitores de CDs, que possuíam 700 MB, o que representava uma enorme capacidade de memória, se comparados com os disquetes, que ainda não haviam sido abandonados, devido aos preços altíssimos dos gravadores de CD. Quando estes tornaram-se populares, as pequenas unidades flexíveis de 1,44 MB foram sendo gradativamente deixadas de lado.

Mas os avanços tecnológicos não pararam por aí. Em 1996, exatos 40 anos após o surgimento do RAMAC, foi lançada uma nova mídia muito semelhante aos discos compactos: era o DVD (Digital Versatil Disc), que podia armazenar até 4,7 GB e, posteriormente, com o DVD de camada dupla, 8, 5 GB.

Chegam a 2 TB

Desenvolvido numa parceria entre Toshiba, Philips e Sony, o DVD foi popularizado como uma mídia cinematográfica, pois a funcionalidade mais explorada pela indústria foi justamente a de reprodução de filmes. Sendo assim, além dos CDs, o DVD também foi o algoz de outra mídia muito importante para a história da tecnologia, as fitas VHS.

Quando os 8,5 GB começaram a ser pouco para tanta qualidade gráfica, a indústria cinematográfica ganhou um novo parceiro: o Blu-ray. Lançado oficialmente em 2006, foi a primeira mídia a suportar resoluções altíssimas e áudio de alta qualidade em discos únicos.

Os discos Blu-ray podem possuir 25 GB ou 50 GB (quando de camada dupla), sendo pouco utilizados para transporte de dados, já que o processo de gravação é um pouco demorado e a qualidade é idêntica à de DVDs.

Os dispositivos que mais cresceram nos últimos anos, exclusivamente pela capacidade, facilidade e velocidade no transporte de dados, foram os pendrives, que outrora foram limitados aos 32 MB de memória e hoje já chegam a armazenar mais de 128 GB, sendo as mídias portáteis mais eficientes da atualidade. Em questões de memória, ficam atrás apenas dos discos rígidos, que podem armazenar terabytes.

PendrivesUm pendrive de 128 GB pode ser comparado (em questões de capacidade interna) com: 28 DVDs; 187 CDs; 91 mil disquetes de 3,5 polegadas ou 109 mil disquetes de 5,25 polegadas. Um disco rígido de 2 TB pode armazenar o conteúdo de 17 pendrives desses.

Além disso, outra forma de transportar dados de forma segura – mesmo que não tão portátil – é através do uso de HDs externos. Eles geralmente são acoplados a gavetas externas e conectados aos computadores através de cabos USB.

Por enquanto o processo de transferência de arquivos é um pouco lento, pois a velocidade de resposta dos USBs é limitada, mas num futuro próximo - com o surgimento de tecnologias como o Light Peak - o processo pode ser bem mais veloz.

Até aonde iremos chegar?
Analisando a enorme evolução tecnológica que ocorreu nos últimos 50 anos, surge uma dúvida que é recorrente às mentes humanas: em 1956, uma tonelada armazenava 5 MB, hoje 2 milhões de MB podem ser armazenados em menos de 100 g. Até onde isso poderá evoluir? Chegará um dia em que as mídias serão ainda mais reduzidas? Ou a internet ficará tão rápida que não serão necessários os transportes físicos? Deixe sua opinião.



Enviado do meu iPhone