Criou página com '= Justificativa = Desde que foi criado uma maneira prática e simplificada de se alocar conteúdos em servidores que pudessem ser acessados rapida e facilmente por usuários no ...'
 
Linha 22: Linha 22:


Atualmente a internet pode ser considerada o principal meio de comunicação e a maior fonte de informações disponível. Devido a este sucesso, a demanda se torna cada vez maior, e consequentemente as expectativas dos seus usuários também são maiores, e para atender essa diversidade de expectativas, novos serviços e aplicações são criados a todo momento. Muitas dessas novas aplicações encontram diversas barreiras, deixando bem claro que a arquitetura atual da Internet não consegue suportar todos esses novos serviços por si só, tornando-se um fator limitante da internet.
Atualmente a internet pode ser considerada o principal meio de comunicação e a maior fonte de informações disponível. Devido a este sucesso, a demanda se torna cada vez maior, e consequentemente as expectativas dos seus usuários também são maiores, e para atender essa diversidade de expectativas, novos serviços e aplicações são criados a todo momento. Muitas dessas novas aplicações encontram diversas barreiras, deixando bem claro que a arquitetura atual da Internet não consegue suportar todos esses novos serviços por si só, tornando-se um fator limitante da internet.
===Resultado do verificador de plágio:===
Text found: que se encarregarão de levar a informação relevante ao seu usuário...Os recursos são identificados pelos seus URIs Uniform Resource Identifiers...A URL Uniform Resource Location faz parte de um subconjunto da URI...Consiste em atribuir um tipo à relação entre dois recursos...o conjunto de recursos e links também são identificados por URI's...uma relação entre dois recursos possui uma propriedade que permite atribuir significado à ligação...documentos ou peças de museu esquecidas ou depositadas em lugares inalcançáveis...A diferença entre os modelos é que agora o conhecimento está formalizado de uma maneira estruturada...o homem viveu o grande desafio de recuperar o conhecimento perdido em livros...a internet mudou este cenário tornando a informação e o conhecimento disponíveis a um clique...buscando tornarem se verdadeiros oráculos do meio digital...Mas para estabelecer a relação semântica entre as diversas fontes de informação...beneficiar se ão aqueles que alcançarem uma posição onde possam ser facilmente localizados por meio das relações semânticas criadas
Url: http://www.wirelessbrasil.org/bloco/2008/julho/jul_02.html
Updated: 2009-01-29 05:00 - 162/13/13/1 - From:Yahoo - Rank:23%


= O famoso protocolo IP =
= O famoso protocolo IP =

Edição das 11h44min de 25 de maio de 2011

Justificativa

Desde que foi criado uma maneira prática e simplificada de se alocar conteúdos em servidores que pudessem ser acessados rapida e facilmente por usuários no mundo inteiro, uma nova fase se iniciou e revolucionou a comunicação no mundo. Essa facilidade implementada por meio de marcações via hipertextos alavancou uma revolução chamada Internet. A partir daí, páginas e mais páginas começaram ser publicadas diariamente na grande rede e esta ação veio se multiplicando a cada dia provocando uma avalanche de endereços que armazenam informações das mais diversas.

Com tanta gente incluindo conteúdos, desde profissionais até leigos, fatalmente teria que provocar alguns problemas, e isso de fato aconteceu. Foram várias situações indesejáveis criadas que foram gradativamente exigindo a criatividade dos esepcialistas para uma solução. Algumas consequências foram mais sérias, entre elas, ocorre uma falta de padronização dessas informações que originou um problema para os usuários na hora de navegar na Internet e assim descobrir as informações desejadas. Esse fato foi denominado Information Overload.

Outra consequência desse acúmulo de dados é que a Internet atual não consegue associar informações de várias páginas exatamente por essa despadronização e também devido à limitação dos protocolos que suportam estas atividades. Diante deste caos, a Web Semântica vem como uma possibilidade de solução permitindo criar um contexto onde a informação possa ter significado para as máquinas, que se encarregarão de levar a informação relevante ao seu usuário.

A web atual é um conjunto de recursos e links. Os recursos são identificados pelos seus URIs (Uniform Resource Identifiers). A URL (Uniform Resource Location) faz parte de um subconjunto da URI. Essa forma de descrição é bem tranquila para um internauta pois este tem condições de ler a descrição do link, identificar o sentido semântico intrínseco naquele contexto e a partir daí vai fazendo suas navegações consciente do rumo a ser seguido. Já a máquina, que ainda não entende segundo o raciocínio humano, não consegue fazer uma análise do juízo transmitido por um link pois muita pouca informações “machine-readable” está disponível.

O significado dos links só é evidente no contexto em torno do documento base portanto depende essencialmente da origem que o está chamando para se avaliar o sentido da informação. Exemplificando uma situação onde dois sites publiquem uma informação sobre ranking de determinado artista, onde em um a nota é positiva e no outro a nota é negativa. Para o entendimento humano, ocorre uma séria incoerência, em se tratando da mesma pessoa, já para a máquina, o procedimento é normal já que percebe uma simples ligação.

Na futura web, ou na web semântica, o conjunto de recursos e links também são identificados por URI's, mas podem ser "tipados". Consiste em atribuir um tipo à relação entre dois recursos. Forma-se o conceito de ontologia (Um recurso, uma propriedade e um valor). Neste contexto, uma relação entre dois recursos possui uma propriedade que permite atribuir significado à ligação. No exemplo dos sites de ranking, pode-se atribuir a propriedade "nota positiva" ao link no primeiro site e a propriedade "nota negativa" ao link no segundo site. A diferença entre os modelos é que agora o conhecimento está formalizado de uma maneira estruturada.

Antes da internet, o homem viveu o grande desafio de recuperar o conhecimento perdido em livros, documentos ou peças de museu esquecidas ou depositadas em lugares inalcançáveis. Contudo, a internet mudou este cenário tornando a informação e o conhecimento disponíveis a um clique. Entretanto, tal fato gerou a sobrecarga de informações que dificulta distinguir entre a informação relevente e o lixo. Enfrenta-se, novamente, o problema de encontrar a informação certa, na hora certa.

Os usuários, inevitavelmente, recorrerão aos mecanismos de busca, que avançam em iniciativas como a web semântica, buscando tornarem-se verdadeiros oráculos do meio digital. Mas para estabelecer a relação semântica entre as diversas fontes de informação, é necessário um esforço descentralizado, que pode demorar anos para se concretizar. Mas como toda novidade gera oportunidade, beneficiar-se-ão aqueles que alcançarem uma posição onde possam ser facilmente localizados por meio das relações semânticas criadas.

A mudança da Internet para atender estes novos padrões é obrigatória, porém a maneira de se fazer essa migração ainda é uma incógnita. Para isso, um número altíssimo de pessoas no mundo estão atualmente envolvidas na pesquisa e implementação de novas propostas que poderão atender às ansiedades atuais dos internautas.

Essas linhas de pesquisa buscam acompanhar e compreender o potencial de mudança da Web, especialmente sua evolução para uma estrutura na qual o conteúdo seja o elemento fundamental e que está levando ao desenvolvimento e ampliação das capacidades dos dispositivos computacionais. Não em termos quantitativos de potência de processamento, mas em termos de qualidade de processamento, uma vez que eles passarão a “compreender” os objetos digitais a partir da sua semântica intrínseca. A interação homem-máquina ocorrerá num nível mais elevado, num nível cooperativo entre as máquinas (machine-to-machine). Uma nova geração de ferramentas e dispositivos computacionais está surgindo. Assim, as ontologias terão papel fundamental, provendo contextos, conceitos e padrões de metadados para classificação e descrição a priori, manipulação, armazenamento, transmissão e apresentação dos objetos digitais.

Atualmente a internet pode ser considerada o principal meio de comunicação e a maior fonte de informações disponível. Devido a este sucesso, a demanda se torna cada vez maior, e consequentemente as expectativas dos seus usuários também são maiores, e para atender essa diversidade de expectativas, novos serviços e aplicações são criados a todo momento. Muitas dessas novas aplicações encontram diversas barreiras, deixando bem claro que a arquitetura atual da Internet não consegue suportar todos esses novos serviços por si só, tornando-se um fator limitante da internet.


Resultado do verificador de plágio:

Text found: que se encarregarão de levar a informação relevante ao seu usuário...Os recursos são identificados pelos seus URIs Uniform Resource Identifiers...A URL Uniform Resource Location faz parte de um subconjunto da URI...Consiste em atribuir um tipo à relação entre dois recursos...o conjunto de recursos e links também são identificados por URI's...uma relação entre dois recursos possui uma propriedade que permite atribuir significado à ligação...documentos ou peças de museu esquecidas ou depositadas em lugares inalcançáveis...A diferença entre os modelos é que agora o conhecimento está formalizado de uma maneira estruturada...o homem viveu o grande desafio de recuperar o conhecimento perdido em livros...a internet mudou este cenário tornando a informação e o conhecimento disponíveis a um clique...buscando tornarem se verdadeiros oráculos do meio digital...Mas para estabelecer a relação semântica entre as diversas fontes de informação...beneficiar se ão aqueles que alcançarem uma posição onde possam ser facilmente localizados por meio das relações semânticas criadas Url: http://www.wirelessbrasil.org/bloco/2008/julho/jul_02.html Updated: 2009-01-29 05:00 - 162/13/13/1 - From:Yahoo - Rank:23%

O famoso protocolo IP

Essa necessidade de evolução se faz obrigatória porque existe uma demanda por novas situações que não conseguem ser atendidas pela estrutura atual. Os revolucionários protocolos TCP/IP provocaram uma mudança radical porém não suportam as atuais necessidades. Baseado nisso, é fatop que a arquitetura do protocolo TCP/IP está com seus dias contados. No início da Internet, em que a mesma só era utilizada por alguns órgãos governamentais, indústrias de alta tecnologia e universidades, este protocolo atendia de forma satisfatória seus usuários. Com a explosão do uso da Internet surgiu a necessidade de se trabalhar em uma nova versão do IP, muito em função da recente saturação no número de endereços IPv4 disponíveis no mundo e que forçaram a criação de novos protocolos como o IPv6 que é na realidade um paliativo já que também não atende a algumas exigências como mobilidade, segurança, expansão ilimitada dos endereços IPS e outras demandas.

O datagrama do IPv4 em si é relativamente simples, mas quando associado aos seus componentes de controles que são incrementados ao longo do tempo (cabeçalhos) se torna extenso e as vezes com informações redundantes, tornando suas interações mais complexas. Essa complexidade leva a conseqüências prejudiciais para as entidades, como falhas e instabilidade, dando incoerência às informações.

Os protocolos e o modelo TCP/IP não diferenciam com clareza os conceitos de serviço, interface e protocolo. A boa prática da engenharia de software exige uma diferenciação entre especificação e implementação. Conseqüentemente, o modelo TCP/IP não é o melhor dos guias para a criação de novas redes com base em novas tecnologias. O modelo TCP/IP não é nem um pouco abrangente e não consegue descrever outras pilhas de protocolos que não a pilha TCP/IP, sendo praticamente impossível por exemplo, descrever a Bluetooth usando este modelo. A camada host/rede não é realmente uma camada no sentido em que o termo é usado no contexto dos protocolos hierarquizados. Trata-se, na verdade, de uma interface (entre as camadas de rede e de enlace de dados). A distinção entre uma interface e uma camada é crucial, mas não é feita no modelo TCP/IP.

O modelo TCP/IP não faz distinção entre as camadas física e de enlace de dados. Elas são completamente diferentes. A camada física está relacionada às características de transmissão do fio de cobre, dos cabos de fibra óptica e da comunicação sem fio. A tarefa da camada de enlace de dados é delimitar o início e o final dos quadros e enviá-los de um lado a outro com o grau de confiabilidade desejado. Um modelo mais adequado deve incluir as duas camadas como elementos distintos. O modelo TCP/IP não faz isso. Porém, apesar de ser praticamente inexistente o modelo TCP/IP seus protocolos se tornaram absurdamente populares e usados em larga escala.

Outro problema do protocolo TCP/IP é a falta de segurança deste. Uma das principais deficiências no aspecto de segurança deste protocolo é a incapacidade deste de autenticar uma máquina na rede. Em outras palavras, com base no endereço IP de origem de um pacote recebido, é impossível determinar com certeza a identidade da máquina que o tenha originado. Há também poucas garantias de que o conteúdo de um pacote recebido não tenha sido alterado, muito menos ainda que a privacidade dos dados nele contidos tenha sido preservada. Ou seja, visto que o IPv4 não foi projetado para ser seguro, qualquer maquina conectada a uma rede TCP/IP corre o risco de perder informações armazenadas nele.

Frente a tantos problemas no protocolo IPv4, a proposta adotada como evolução do IPv4 foi a SIPP (Simple Internet Protocol Plus), que foi atribuído o nome de IPv6. Este protocolo seria uma evolução que permite um número muito maior de IPs que o IPv4 e uma série de modificações no datagrama, com acréscimo de alguns cabeçalhos a fim e solucionar alguns problemas referentes ao IPv4.

Outra falha que podemos citar no protocolo TCP/IP está relacionada à redes sem fio. Quando projetado, o protocolo TCP/IP não previa que deveria suportar as redes wireless, por isso não apresenta qualquer tipo de teste de congestionamento, apenas de chegada de pacotes, por esse motivo, muitas vezes o pacote é enviado e tarifado pelo provedor, mas devido a um congestionamento de rede, ou pelo fato deste usuário sair de uma região atendida por um determinado ponto de acesso para outro, o pacote tem que voltar ao provedor para ser novamente enviado, e como o TCP/IP não compreende tais situações, ele admite que o pacote foi perdido e envia outro, o qual será novamente tarifado ao ser enviado para o usuário desta rede sem fio.

Quando falamos em limitação da internet autal, já pensamos logo em numero de endereços IPs. Obviamente o numero de endereços IPs do protocolo IPv4 atual é um fator limitante. Quando iamos pensar que o nosso telefone celular fosse ter um endereco IP? E as nossas geladeiras? A LG lancou uma geladeira com acesso a internet. E o nosso carro? A BMW vende carros que ficam conectados 24h na internet via 3G ou GPRS. Cada um desses dispositivos possui um endereço IP. Imagine a quantidade de endereços que precisaremos para cada um desses dispositivos. Mas as limitações da internet atual não se encontram apenas na quantidade de endereços. Novas applicações surgiram desde que o protocolo IPv4 foi desenhado. A Internet mudou. Na época não se falavam em video 3D FULL-HD sendo transmitido em tempo real para milhares de hosts, por exemplo. São milhares de exabytes sendo transportado por um protocolo que foi desenhado para alguns megabits por segundo. Novas demandas de muita informação e muita velocidade surgem e surgirão.

Existem ainda outras limitações nas compatibilidades do protocolo com novas tecnologias, principalmente, tecnologias wireless que necessitam de camadas para adaptar o protocolo com o protocolo da internet. Limitações no gerenciamento de tanta informação, manuseio, roteamento de pacotes que não nos dá um retorno da saude da internet, por exemplo, se um determinado pacote demora para chegar, não sabemos onde ele demorou, dificultando o diagnostico de problemas.

Apesar de apresentar vantagens claras frente ao IPv4 e ser uma proposta que ajudaria a resolver alguns destes problemas, o IPv6 não poder ser considerado como solução. Ele ainda é um protocolo muito rígido, limitado em diversos aspectos. A verdadeira solução para os protocolos atuais está na possibilidade de darmos a capacidade de inferência para a máquina, ou seja, inserir semântica de modo a estabelecer conexão entre as informações, tornando os protocolos mais flexíveis a ponto de podermos encurtar as camadas de rede, transporte em enlace, etc.

A amplitude da Internet

Propor alternativas para alterar a arquitetura atual de uma tecnologia tão útil não seria obrigatório se não fosse a abrangência conseguida por ela. Desde que foi colocada a disposição da comunidade, teve um crescimento nunca dantes visto no mundo. Atualmente, temos mais de 2 bilhões de usuários internautas que utilizam a Internet podendo ler e receber emails, navegar por páginas das mais diversas, baixar vídeos e arquivos em geral e outras tantas aplicações criadas pela inteligência humana. Deste total de fervorosos navegadores, uma média de 10% se encontra na Amércia Latina e o Brasil, especificamente tem se tornado arrebatado o maior percentual no nosso continente. Imaginem um dado de 2010, onde tivemos, em relação ao serviço de e-mail, 107 trilhões de mensagens no ano, numa média de 294 bilhões por dia. Ainda neste ano de 2010, os sites publicados chegaram a 255 milhões, num crescimento de 8% em relação ao ano anterior. Supondo que continue esse aumento proporcional, chegaríamos a 340 milhões em 5 anos e assim pelos próximos anos. Levando em conta que a Internet supera seus próṕrios números, provavelmente teríamos muito mais que isso.

Outro crescimento assustador, que ocorreu em função da facilidade de captar imagens e vídeos, pelo volume estrondoso de vendas de equipamentos como webcams, máquinas fotográficas digitais e filmadoras, foi o upload e download de vídeos, de musicais a eróticos e culturais. O Youtube, lider nesta categoria, recebe a cada minuto. o upload de 35 horas de conteúdo e todos os dias são assistidos 2 bilhões de vídeo no mundo, já no Facebook, são 2 bilhões por mes. A vedete do momento, as midias sociais, evoluiram de tal forma, em poucos anos, que já temos mais 152 milhões de blogs na rede; no Twitter, há 175 milhões de usuários (100 milhões a mais do que em 2009). A Lady Gaga possui, sozinha, 7,7 milhões de seguidores – sendo o perfil mais seguido. No Flickr, existem mais de 5 bilhões de fotos, sendo que mais de 3 mil são colocadas a cada minuto, o que dá uma média de 130 milhões de novas fotos ao mês.

Outro indicativo do poder desta rede é o número de domínios existentes, já são mais de 9 milhões de extensões COM. Com tantos números indicando uma população de usuários tão impressionante não é novidade, os apertos por que tem passado a estrutura atual e mais ainda as dificuldades que estão por vir para assumir números cada vez crescentes.

Soluções nessa linha de raciocínio já estão sendo desenvolvidas. Existem propostas de mudança de arquitetura e propostas para embutir mais inteligência na rede, ou as duas juntas. Com relação a primeira, o AutoI, uma das muitas soluções em fase de desenvolvimento a nível mundial, se encaixa de forma a tentar resolver os eventuais problemas que já foram detectados e outros que ainda devem surgir. Com relação à segunda, podemos citar a OWL ( Ontology Web Language) que apresenta ferramentas como Protegé, Oracle 11g, OntoStudio entre outros; e ambientes nos quais testes deste tipo já estão sendo feitos e implementados sobre estruturas inavoadores, uma delas, o próprio AUTOI que trabalha em cima de uma topologia de planos.

Em função do histórico da evolução da Internet, das limitações que está sentindo e pela perspectiva de crescimento desenfreado, se faz necessário propor novas arquiteturas e soluções. Este projeto visa avaliar, selecionar, instalar, homologar e testar em várias situações do mundo real, as propostas disponíveis atualmente no mundo e em particular o AutoI, que pode vir a ser escolhida como uma das melhores estruturas para resolver os desafios discutidos até aqui.