Informações, Novidades e Empregos em Tecnologia e Concursos Públicos em TI

CONCURSOS PÚBLICOS – REDES DE COMPUTADORES E SUPORTE

Hackers podem ter realizado o maior ataque DDoS da história

A provedora de hospedagem francesa OVH revelou nesta semana o que pode ter sido o maior ataque DDoS da história. A rede da empresa ficou incapacitada após uma corrente de acessos ao seu sistema que chegou a ultrapassar o volume de 1 Terabit por segundo de tráfego.

Ataques de distribuição de negação de serviço (DDoS, na sigla em inglês) acontecem quando muitos terminais tentam se conectar aos mesmos servidores de uma só vez, sobrecarregando-os. De acordo com Octave Klaba, presidente do OVH, o bombardeio de acessos teria sido feito por uma botnet composta por mais de 150 mil dispositivos conectados à internet.

A rede de terminais “zumbis” usados para o ataque DDoS, segundo Klaba, incluiu principalmente câmeras de segurança e webcams. Os ataques foram realizados ao longo de toda a semana passada, com outros picos de 800 Gbps e 900 Gbps. Somados todos os picos de acesso, é provável que o ataque tenha gerado tráfego acima de 1.5 Tbps.

“Dentro de um ou dois anos, ataques como esse vão se tornar comuns”, disse o especialista em segurança Martin McKeay, da Akamai, em entrevista ao site Ars Technica. “Agora que as pessoas sabem que essas coisas [ataques de mais de 1 Tbps] são possíveis, elas vão começar a pressionar nesta direção. Vão fazer acontecer.”

Fonte: http://olhardigital.uol.com.br/fique_seguro/noticia/hackers-podem-ter-realizado-o-maior-ataque-ddos-da-historia/62625


Software Defined Infrastructure

Esqueça tudo o que se sabe sobre a infraestrutura da tecnologia da informação. Hoje com todo o armazenamento controlado por software, faz com que o Software Defined Infrastructure (SDI) seja fundamental para acelerar a inovação e fazer com que as empresas se adaptem rapidamente às constantes mudanças.

A infraestrutura dentro dos datacenters tornou-se mais complexa de gerir e tarefas relacionadas à implantação de novas soluções ou aplicativos ainda são feitas manualmente, sendo que equipes de TI muitas vezes executam suas tarefas com pouco conhecimento ou compreensão de quais recursos requer um datacenter.

O SDI, por sua vez, permite transformar uma infraestrutura de TI estática em um ambiente de recursos, trabalho e reconhecimento de dados mais dinâmico.

Abrir os recursos de hardware por meio de APIs que se integrem às estruturas abertas é o primeiro passo para a construção de um ambiente baseado em software ágil e flexível, uma vez que as interfaces abertas aumentam a velocidade da integração.

Mudança no consumo
No entanto, o SDI pode ser visto como a “saída” da computação em nuvem pública ou híbrida, o que vai influenciar na forma como consumimos os produtos tecnológicos.

Recursos, como armazenamento, backup e software de monitoramento adaptativo, serão alocados dinamicamente com base no hardware disponível e nas restrições impostas por administradores de sistemas sobre o que pode ser enviado para a nuvem e quando.

Fonte:

http://www.ibm.com/it-infrastructure/br-pt/software-defined-infrastructure/

http://olhardigital.uol.com.br/alem_da_infra/noticia/o-que-e-sdi/61091


Software Defined Storage

Armazenamento definido por software (SDS) é um novo modelo de armazenamento que independe o software do hardware, proporcionando maior flexibilidade, escalabilidade e economia, reduzindo a complexidade do armazenamento de dados para que seu negócio possa aproveitar melhor os dados e obter insights mais ricos.

Entender o conceito de Software Defined Storage (SDS) requer um rápido olhar para a evolução do hardware nos últimos anos. E, no final desse artigo veremos que, mais uma vez, precisamos voltar o olhar para as máquinas. Antes, é preciso saber que a chegada da tecnologia NAND Flash (os nossos populares SSDs) ao ambiente dos storages foi decisiva. Ela não apenas permitiu a criação de sistemas de storage mais rápidos, mas também promoveu uma aproximação maior entre servidores, dispositivos de rede e storages, com arquiteturas mais ágeis e flexíveis. No final das contas, a soma de todos esses fatores culminou com a criação de sistemas de armazenamento realmente definidos pelo software.

Traduzindo para o dia a dia, no ambiente de datacenters de alguns anos atrás, as máquinas precisavam ser muito mais especializadas. Ou seja, cada tipo de hardware atendia tipos específicos de software. Isso valia tanto para o sistema de storage, quanto para os servidores ou para os dispositivos de rede. Com o ganho de velocidade e agilidade que a tecnologia NAND flash trouxe para todo o ecossistema, as máquinas, aos poucos, tornaram-se mais “genéricas” e foi possível criar interfaces capazes de controlar todos os elementos a partir de apenas um ponto.

As vantagens são evidentes. A partir de um painel único de controle, capaz de reunir todos os elementos, os times de tecnologia ganharam agilidade e mais confiabilidade nas novas implantações. Além disso, ficou muito mais fácil integrar infraestrutura antiga com equipamentos novos.

Finalmente, a partir do novo conceito, unir sistemas de nuvem privada e nuvem pública tornou-se um processo quase instantâneo e natural. Ou seja, os sistemas SDS trazem a promessa de facilidade na operação, a elasticidade (é muito fácil integrar novos equipamentos), a segurança e, é claro, a redução de custos.

Olhar mais atento
Num olhar menos atento, muitos podem entender que, já que estamos sob a “ditadura” do software, o hardware e as ferramentas do mundo físico  podem ser relegadas a um segundo plano. Afinal, como a camada de software é a responsável pela acomodação das demandas – ao ponto de fazer ficarem cada vez mais integrados servidores, storages e dispositivos de rede – a tentação de dar menor importância ao hardware é grande.

Num olhar menos atento, muitos podem entender que, já que estamos sob a “ditadura” do software, o hardware e as ferramentas do mundo físico  podem ser relegadas a um segundo plano. Afinal, como a camada de software é a responsável pela acomodação das demandas – ao ponto de fazer ficarem cada vez mais integrados servidores, storages e dispositivos de rede – a tentação de dar menor importância ao hardware é grande.

Porém, ainda que o hardware seja entendido como “commodity” a partir do conceito de SDS, é preciso reafirmar que existe um grande salto de performance quando soluções de gerenciamento poderosas se unem a equipamentos de primeira linha. Ao final, para garantir toda a eficiência aos sistemas SDS, não podemos encarar o hardware como “simples” commodity. Todos os melhores resultados estão sendo obtidos pela combinação de recursos poderosos de software, sem que se abra mão de máquinas de alta qualidade, ainda que elas não mais precisem ser desenhadas para atender aplicações específicas.

Hoje em dia, expandir ou modernizar a capacidade de storage é essencial para atender as demandas de Big Data e Analytics que estão cada vez mais presentes no dia a dia das empresas – e são cada vez mais decisivas para o sucesso das linhas de negócio.

Fonte:

http://olhardigital.uol.com.br/alem_da_infra/noticia/para-entender-o-que-e-sds/61089

http://www-03.ibm.com/systems/br/storage/spectrum/spectrum-suite/index.html?cm_mmc=Display_Olhardigital-_-IBM+Systems_Systems+-+Storage+Spectrum-_-BR_BR-_-11111111_Olhar+SDS+Learn&cm_mmca1=000003IM&cm_mmca2=10000367


Google e Facebook colaboram para criar servidores mais eficientes

O Google e o Facebook criaram, em colaboração, uma modificação ao padrão de servidores usados em data centers. O novo padrão recebeu o nome de Open Rack v2.0, e deverá permitir que as máquinas desses locais ocupem menos espaço e consumam menos energia, economizando dinheiro às empresas e tornando os servidores mais amigáveis ao meio ambiente.
Segundo o Google, o Open Rack v2.0 especifica uma arquitetura de energia baseada em 48 volts. Atualmente, servidores e racks de data centers utilizam uma arquitetura de 12 volts para se alimentar. No entanto, o Google diz que a arquitetura proposta por eles melhora a eficiência dos data centers e “já economizou milhões de dólares e kilowatts hora para o Google”.
Além de propor essa mudança na arquitetura de energia, a empresa também incluiu no projeto detalhes sobre as especificações mecânicas e elétricas do padrão. O design das pratelheiras de energia, retificadores de alta eficiência (que convertem energia de corrente alternada para corrente direta), controladores de gerenciamento dos racks e baterias redundantes dos servidores também foram detalhados pelo Google.
Lutando por eficiência
A colaboração entre as duas empresas aconteceu graças ao envolvimento do Google no Open Compute Project (OCP). O OCP é um projeto criado pelo Facebook em parceria com outras empresas de tecnologia (como a Microsoft, a Intel e a IBM) para ajudar a criar computadores mais eficientes.
Essas mudançãs propostas pela empresa estão sujeitas aos comentários e alterações da OCP, e depois serão apresentadas pelo Google no OCP Engineering Workshop, no dia 10 de agosto. Caso sejam aprovadas pelas outras empresas do projeto, elas serão a primeira contribuição do Google para o OCP.
Buscar formas mais eficientes de construir servidores e data centers é de interesse de todas as empresas de tecnologia e de internet. Conforme o Olhar Digital pode comprovar em uma recente visita a um data center da Level 3, a energia é um dos principais gastos dessas empresas, e qualquer melhoria na eficiência das máquinas pode se reverter em uma economia de milhões de dólares por mês.
Por esse motivo, o Google investe em diversas iniciativas para economizar energia em seus centros de dados. Além de trabalhar em parceria com o Facebook, a empresa também empregou os esforços de inteligência artificial da DeepMind para ajudar a reduzir o consumo de energia de seus data centers.

Fonte:http://olhardigital.uol.com.br/pro/noticia/google-e-facebook-colaboram-para-criar-servidores-mais-eficientes/60962


Livro IPV6 básico

O Livro IPV6 básico não se limita somente a mostrar as diferenças básicas entre os dois protocolos e as novas funcionalidades do IPv6. Apresenta várias técnicas e práticas de planejamento e configuração de endereçamento IPv6, proporcionando o entendimento na prática de como ocorre a migração de IPv4 para IPv6.

Paginas: 228

Formato: PDF

Tamanho: 8 MB

Download Mega: http://tinyurl.com/nt7cfwg

DEIXE O SEU COMENTÁRIO ABAIXO!!!!!


Livro Teste de Invasão de Aplicações Web

O livro Teste de Invasão de Aplicações Web é um ótimo livro desenvolvido pela Escola Superior de Redes sendo dividido em vários assuntos: Segurança em aplicações web, Reconhecimento e mapeamento, Teste do mecanismo de autenticação, Teste do gerenciamento de sessões, Cross-site scripting, Injeção de SQL e outros. Indicado para estudantes de TI, concursos públicos e profissionais em geral. Vale a pena conferir.

Paginas: 513

Tamanho:12 MB

Formato: PDF

Download MEGA: http://preview.tinyurl.com/otvfgxn

DEIXE O SEU COMENTÁRIO.


Livro Engenharia Reversa de Código Malicioso

O livro Engenharia Reversa de Código Malicioso é abordado diversos assuntos relacionado ao tema, como: Ferramentas utilizadas, Introdução ao IDA Pro e OllyDBG, Formato de arquivos executáveis, Assembly básico, Import Address Table, Truques anti-engenharia reversa e entre outros. Desenvolvido pela Escola Superior de Redes é um ótimo material para estudantes de faculdade, concursos públicos e profissionais de TI em geral.

Paginas: 144

Formato: PDF

Tamanho: 3,5 MB

Download:http://preview.tinyurl.com/kye3ojp

DEIXE O SEU COMENTÁRIO


Livro Administração de Videoconferência

O livro Administração de Videoconferência desenvolvido pela Escola Superior de Redes é um ótimo material onde explica em detalhes desde o conceito até a construção de projetos de ambiente de videoconferência. Indicado para estudantes de TI, concursos públicos e profissionais em geral. Vale a pena conferir.

Paginas: 294

Formato: PDF

Tamanho: 11 MB

Download MEGA:http://preview.tinyurl.com/lkreock

DEIXE O SEU COMENTÁRIO.


Livro Introdução à Voz sobre IP e Asterisk

O livro Introdução à Voz sobre IP e Asterisk é um ótimo material desenvolvido pela Escola Superior de Redes que contribui para aqueles que desejam se aprofundar sobre o assunto. Indicado para estudantes de faculdade, profissionais de TI ou Telecomunicação. Vale a pena conferir.

Paginas: 275

Formato: PDF

Tamanho: 10 MB

Download MEGA: http://preview.tinyurl.com/k76kpk8

DEIXE O SEU COMENTÁRIO.


Virtualização de Servidores

 

O livro Virtualização de Servidores é uma material completo desenvolvido pela Escola de Superior de Redes com relação a virtualização e as principais ferramentas existentes para um Datacenter Virtual. Vale a pena conferir!!!

Paginas: 426

Formato: PDF

Tamanho: 45.7 MB

Download MEGA:http://preview.tinyurl.com/pr24c84

DEIXE O SEU COMENTÁRIO.