Objetivo

Rascunho #1
Aproximar as camadas de aplicação e rede, referentes ao modelo de arquitetura de redes OSI, de modo a substituir a estrutura de protocolos já existente, especificamente os pertencentes ao conjunto TCP/IP. A proposta é seguir as tendências de um novo ambiente já em funcionamento, o AutoI, colaborarando com o desenvolvimento de um novo protocolo que atenda melhor às necessidades da Internet do futuro, além de acumular conhecimentos e pesquisas relativas à nova forma de organizar conhecimentos e desenvolver aplicativos, as ontologias.

Rascunho #2
O objetivo principal do projeto é implementar o protocolo FINLAN na arquitetura de internet do futuro do AutoI.

Com isso objetivamos aproximar as camadas de aplicação e rede do modelo OSI de modo a substituir a estrutura de protocolos já existente, especificamente o conjunto TCP/IP, por um protocolo que faça uso de ontologias e não apresente os problemas primários da estrutura TCP/IP.

A proposta é colaborar com o AutoI de forma a integrar um ambiente que leva semântica e autonomia a rede com o protocolo FINLAN que elimina os problemas do TCP/IP e faz uso de ontologias a fim de dar inteligência a rede.

Tópicos

  • Objetivo final
    • Implementar o protocolo FINLAN na arquitetura do AutoI
  • Objetivos gerais
    • Aproximar as camadas de aplicação e de rede
    • Colaborar com o AutoI
    • Inserir o protocolo FINLAN na arquitetura do AutoI
    • Levar inteligência (semântica) as camadas inferiores
    • Aplicar a ontologia nas camadas de rede

Foco

Convencer sobre a importância do projeto, explanando sobre as limitações dos protocolos atuais, como problemas de segurança, gerenciabilidade, confiabilidade, mobilidade, etc. Exemplificando com trabalhos que já estão sendo desenvolvidos nos USA, na Ásia e principalmente na Europa (de preferência com nomes de peso).

Evolução da internet

•Modelagem da internet no seu incio (4ward)

•Comparação com a internet atual (4ward)

"Eu sei que se já 10 anos eu tivesse contado contado que todas essas coisas viriam, vocês diriam que isso era impossível"

Limitações dos protocolos atuais

Milhares de novas páginas são publicadas diariamente na internet e a falta de padronização dessas informações originaram um problema para os usuários na hora de navegar na Internet e assim achar as informações desejadas. Esse problema é chamado de Information Overload. Outro grande problema é que a internet atual não consegue associar informações de várias páginas. Diante deste caos a web semântica vem como solução permitindo criar um contexto onde a informação possa ter significado para as máquinas, que se encarregarão de levar a informação relevante ao seu usuário.

A web atual é um conjunto de recursos e links. Os recursos são identificados pelos seus URIs (Uniform Resourcem Identifiers). A URL (Uniform Resource Location) faz parte de um subconjunto da URI. Para o usuário, não existe nenhum problema quanto a esta questão, pois este é capaz de ler a descrição do link, identificando o sentido semântico embutido naquele contexto. Para a máquina, entretanto, muito pouca informação “machine-readable” está disponível, uma vez que não é possível fazer uma análise quando ao juízo transmitido por um link. O significado dos links só é evidente no contexto em torno da âncora. Por exemplo, dois sites de cinema podem fazer referência à um mesmo filme. Entretanto, um site lista o filme entre os dez melhores e o outro site lista-o entre os dez piores. O sentido é totalmente diferente para o homem, mas não para a máquina, que só percebe uma simples ligação.

Na futura web, ou na web semântica, o conjunto de recursos e links também são identificados por URI's, mas podem ser "tipados". Consiste em atribuir um tipo à relação entre dois recursos. Forma-se o conceito de ontologia (Um recurso, uma propriedade e um valor). Neste contexto, uma relação entre dois recursos possui uma propriedade que permite atribuir significado à ligação. No exemplo dos sites de filme, pode-se atribuir a propriedade "está entre os dez melhores" ao link no primeiro site e a propriedade "está entre os dez piores" ao link no segundo site. A diferença entre os modelos é que agora o conhecimento está formalizado de uma maneira estruturada.

Antes da internet, o homem viveu o grande desafio de recuperar o conhecimento perdido em livros, documentos ou peças de museu esquecidas ou depositadas em lugares inalcançáveis. Contudo, a internet mudou este cenário tornando a informação e o conhecimento disponíveis a um clique. Entretanto, tal fato gerou a sobrecarga de informações que dificulta distinguir entre a informação relevente e o lixo. Enfrenta-se, novamente, o problema de econtrar a informação certa, na hora certa.

Os usuários, inevitavelmente, recorrerão aos mecanismos de busca, que avançam em iniciativas como a web semântica, buscando tornarem-se verdadeiros oráculos do meio digital. Mas para estabelecer a relação semântica entre as diversas fontes de informação, é necessário um esforço descentralizado, que pode demorar anos para se concretizar. Mas como toda novidade gera oportunidade, beneficiar-se-ão aqueles que alcançarem uma posição onde possam ser facilmente localizados por meio das relações semânticas criadas.

Projetos em desenvolvimento

European Future Internet (http://www.future-internet.eu/) Europe

World Wide Web Consortium (W3C) (http://www.w3.org/standards/semanticweb/)

NETIC, Núcleo de Estudos em Tecnologias para Informação e Conhecimento (http://www.netic.com.br/) Brasil

Dublin Core Metadata Institute (http://dublincore.org/)

•Perspectivas (Do nosso projeto e dos em desenvolvimento fora)

         •Trabalhar no ambiente AutoI

Projeto na área de Tecnologia da Informação (TIs), linha de pesquisa busca acompanhar e compreender o potencial de mudança da Web, especialmente sua evolução para uma estrutura na qual o conteúdo seja o elemento fundamental e que está levando ao desenvolvimento e ampliação das capacidades dos dispositivos computacionais. Não em termos quantitativos de potência de processamento, mas em termos de qualidade de processamento, uma vez que eles passarão a “compreender” os objetos digitais a partir da sua semântica intrínseca. A iteração homem-máquina ocorrerá num nível mais elevado, num nível cooperativo entre as máquinas (machine-to-machine). Uma nova geração de ferramentas e dispositivos computacionais está surgindo. Assim, as ontologias terão papel fundamental, provendo contextos, conceitos e padrões de metadados para classificação e descrição a priori, manipulação, armazenamento, transmissão e apresentação dos objetos digitais.

Introdução

Descrição das Propostas

Existem hoje várias correntes propondo arquiteturas para o novo padrão de Internet. Desenvolvidas em várias regiões do planeta como a Europa, Ásia e EUA e envolvendo grandes instituições e universidades importantes e renomadas. Alguns projetos que possuem destaque neste cenário e que podem ser citados como referência são: 4WARD, ANA, ADAMANTIUM, ASPIRE, AUTOI, CASAGRAS, CHRON, ETNA, FAST, COAST, COMPAS, AKARI, GENI, G-lab, entre outros. Entre estes podemos destacar tres que prometem competir pela definição de um padrão mundial, não esquecendo que os outros projetos também tem suas potencialidades. São eles: 4WARD, AUTOI e GENI.

O GENI (Global Environment for Network Innovations) é uma iniciativa americana que acredita que uma reorganização da Internet é necessária e para isso criou um ambiente experimental compartilhado para auxiliar na validação de novas arquiteturas de rede. Pretende prover características aperfeiçoadas como: maior segurança, melhor integração de tecnologias opticas e sem fio e integração com o mundo de sensores e processadores embutidos. Como infraestrutura tecnológica propõe os seguintes aspectos: programabilidade, virtualização e outras formas de compartilhamento, federação e experimentação baseada em partes (slice).

Já o projeto 4WARD é parte do programa FP7 (7th Framework Programme for Research and Technological Development), um conjunto de iniciativas com prazo de desenvolvimento entre 2007 e 2013 com recursos de 50 bilhões de euros para reforçar a base científica e tecnológica da indústria européia. O 4Ward como parte deste programa teve, pois aconteceu no período de 2008 a 2010, alguns objetivos básicos como criar o desenvolvimento de redes e aplicações conectadas mais rápidas e mais fáceis e estudar os desafios chaves para a Internet do Futuro.

Uma proposta que pretendemos apoiar e utilizar como plataforma para o desenvolvimento de soluções para a Internet do Futuro é o AutoI. Desenvolvido na Europa, este propõe corrigir os problemas da Internet atual, visto que esta alcançou proporções muito grandes e necessita de melhorias para poder interconectar sistemas e conhecimento. O grande desafio e objetivo é projetar e desenvolver uma solução que possa abranger redes heterogêneas, que suporte um serviço de mobilidade, confiabilidade e qualidade de serviço, sendo que esta solução seja uma rede de infraestrutura aberta (open source) baseado em ontologias de informações e modelos de dados.

A arquitetura deste modelo é estruturada em cinco abstrações, os planos OSKMV: Orchestration, Service Enablers, Knowledge, Management e Virtualisation. Cada um destes planos executaria funções que abrangem desde a aplicação ao seu controle, para que todos os objetivos e melhorias propostas fossem alcançadas.

O plano de orquestração (Orchestration) é uma definição conceitual para uma série de ferramentas que governam, integram e policiam os processos e aplicações da Internet através de sistemas autonômicos de controle, os quais tem a capacidade de cancelar ou corrigir processos, além de interagirem. O controle destes sistemas é feito por componentes de orquestração distribuídos, chamados DOCs, os quais possuem uma visão da arquitetura de processos específicos e atuam através de comandos específicos para interferir em cada processo.

O plano de abilitadores de serviço (Service Enablers) é um conjunto de funções de reimplantação automática de protocolos, serviços de controle e serviços prestados ao usuário. Isto permite que os códigos sejam ativados ou executados sobre entidades da rede, aumentando o controle e a segurança sobre estes serviços.

O plano de conhecimento (Knowledge) consiste de modelos e ontologias com a capacidade de fazer análises e integrar conhecimentos através de inferências, assim a rede tem a capacidade de executar auto-monitoramento, auto-análise, entre outros processos que possibilitam a conexão entre dados conforme características comuns, o que cria uma estrutura circular entre as informações e deixa todo o processo mais inteligente e eficiente.

O plano de gestão (Management) é justamente formado pelos sistemas autonômicos de controle que agem nos processos da rede em loops constantes, controlados pelo plano de orquestração. É importante destacar que cada sistema atua sobre um processo específico de forma automática, através de funções de monitoramento. Este plano tem a capacidade de gerar funções embarcadas na rede que se adaptam ao meio e que podem ser extendidas conforme necessidade, sem perturbar o funcionamento do sistema, além de minimizarem o custo computacional das operações e o consumo de energia.

O plano de virtualização (Virtualisation) são mecanismos de software que tratam recursos físicos selecionados como recursos virtuais de programação organizados pelos planos de orquestração e gestão para a criação de componentes, dispositivos ou redes. Este plano é utilizado pelo plano de orquestração para governar os recursos virtuais e construir redes e instrumentos para serviços específicos.

Sobre o vCPI

Esta interface providencia um meio para acessar o plano de controle de forma a configurar componentes para iniciar roteadores virtuais que formam novas redes. Estes roteadores chamados Virtual Routers(VR), surgem através de máquinas virtuais (Virtual Machines - VM) graças a um sistema de operação presente em cada uma delas que podem atuar em cada processo local. Abaixo o ciclo de vida de uma VM, que representa cada um dos estados possíveis desta, que variam desde parada ou indefinida, até em funcionamento ou suspensa conforme necessidade.

-> Imagem.

Existem métodos pré-definidos para cada VM, os quais podem receber como parâmetros que variam desde uma URL até um objeto identificador da própria máquina. Estes métodos retornam mensagens de erro e podem modificar o estado, iniciar migrações e criar instâncias na VM. Por exemplo, existe um método chamado por changeVMState, para o qual são passados um objeto de identificação de uma VM e o novo estado que esta deve assumir.

Existem processos para controle de Virtual Links, cujo objetivo é conectar dois VRs. Estes devem ser chamados por ambos componentes e podem desde criar, a modificar e remover conexões entre os roteadores . Um exemplo é o método que cria um link, instantiateLink, que recebe como parâmetros os identificadores das duas VM e os parâmetros do link, e retorna o identificador do link.

Para segurança e bom funcionamento dos componentes configurados nesta interface, existem também métodos de monitoramento que permitem a outros planos o acesso a valores de cada componente, além de retornarem listas de identificadores de links ou de VMs. Exemplos desses processos são: getMonitoringValues e getVMList que não necessitam de parâmetros e retornam valores de RAM e HD disponíveis, entre outros, e listas de identificadores de VMs, especificamente.

  • Obs.: A referência utilizada foi: - AutoI_Deliverable_D1.1_-_Initial_Monitoring_of_Virtual_Networks

Limitações da Internet Atual

Atualmente a internet pode ser considerada o principal meio de comunicação e a maior fonte de informações disponível. Devido ao sucesso da internet a demanda se torna cada vez maior, e consequentemente as expectativas dos seus usuários também são maiores, e para atender essa diversidade de expectativas, novos serviços e aplicações são criados a todo momento. E muitas dessas novas aplicações encontram diversas barreiras, deixando bem claro que a arquitetura atual da internet não consegue suportar todos esses novos serviços por si só, tornando-se um fator limitante da internet.

A arquitetura do protocolo TCP/IP é uma das que está com seus dias contados. No início da internet, em que a mesma só era utilizada por alguns órgãos governamentais, indústrias de alta tecnologia e universidades, este protocolo atendia de forma satisfatória seus usuários. Com a explosão do uso da internet surgiu a necessidade de se trabalhar em uma nova versão do IP para impedir que estes se esgotassem e a para de torná-lo mais flexível, visto que a internet passou a ser usada por novos grupos de pessoa, onde cada um tinha necessidades especificas.

O datagrama do IPv4 em si é relativamente simples, mas quando associado aos seus componentes de controles que são incrementados ao longo do tempo ( cabeçalhos ) se torna extenso e as vezes com informações redundantes, tornando suas interações mais complexas. Essa complexidade leva a conseqüências prejudiciais para as entidades, como falhas e instabilidade, dando incoerência às informações.

Os protocolos e o modelo TCP/IP não diferenciam com clareza os conceitos de serviço, interface e protocolo. A boa prática da engenharia de software exige uma diferenciação entre especificação e implementação. Conseqüentemente, o modelo TCP/IP não é o melhor dos guias para a criação de novas redes com base em novas tecnologias. O modelo TCP/IP não é nem um pouco abrangente e não consegue descrever outras pilhas de protocolos que não a pilha TCP/IP, sendo praticamente impossível por exemplo, descrever a Bluetooth usando este modelo. A camada host/rede não é realmente uma camada no sentido em que o termo é usado no contexto dos protocolos hierarquizados. Trata-se, na verdade, de uma interface (entre as camadas de rede e de enlace de dados). A distinção entre uma interface e uma camada é crucial, mas não é feita no modelo TCP/IP.

O modelo TCP/IP não faz distinção entre as camadas física e de enlace de dados. Elas são completamente diferentes. A camada física está relacionada às características de transmissão do fio de cobre, dos cabos de fibra óptica e da comunicação sem fio. A tarefa da camada de enlace de dados é delimitar o início e o final dos quadros e enviá-los de um lado a outro com o grau de confiabilidade desejado. Um modelo mais adequado deve incluir as duas camadas como elementos distintos. O modelo TCP/IP não faz isso. Porém, apesar de ser praticamente inexistente o modelo TCP/IP seus protocolos se tornaram popular e são usados em larga escala.

Outro problema do protocolo TCP/IP é a falta de segurança deste. Uma das principais deficiências no aspecto de segurança deste protocolo é a incapacidade deste de autenticar uma máquina na rede. Em outras palavras, com base no endereço IP de origem de um pacote recebido, é impossível determinar com certeza a identidade da máquina que o tenha originado. Há também poucas garantias de que o conteúdo de um pacote recebido não tenha sido alterado, muito menos ainda que a privacidade dos dados nele contidos tenha sido preservada. Ou seja, visto que o IPv4 não foi projetado para ser seguro, qualquer maquina conectada a uma rede TCP/IP corre o risco de perder informações armazenadas nele.

Frente a tantos problemas no protocolo IPv4, a proposta adotada como evolução do IPv4 foi a SIPP (Simple Internet Protocol Plus), que foi atribuído o nome de IPv6. Este protocolo seria uma evolução a qual permite um número muito maior de IPs que o IPv4 e uma série de modificações no datagrama, com acréscimo de alguns cabeçalhos a fim e solucionar alguns problemas referentes ao IPv4.

Apesar de apresentar vantagens claras frente ao IPv4 e ser uma proposta que ajudaria a resolver alguns destes problemas, o IPv6 não poder ser considerado como solução. Ele ainda é um protocolo muito rígido, limitado em diversos aspectos. A verdadeira solução para os protocolos atuais está na possibilidade de darmos a capacidade de inferência para a máquina, ou seja, inserir semântica de modo a estabelecer conexão entre as informações, tornando os protocolos mais flexíveis a ponto de podermos encurtar as camadas de rede, transporte em enlace.

Soluções nessa linha de raciocínio já estão sendo desenvolvidas, entre as quais podemos citar a OWL ( Ontology Web Language ) que apresenta ferramentas como Protegé, Oracle 11g, OntoStudio entre outros; e ambientes nos quais testes deste tipo já estão sendo feitos e implementados como o AUTOI que trabalha em cima dos planos OSKMV: Orchestration, Service Enablers, Knowledge, Management e Virtualisation.


Referencias:

Keesje Duarte Pouw, Segurança na arquitetura TCP/IP: de firewalls a canais seguros, Dissertação de Mestrado. ( http://www.las.ic.unicamp.br/paulo/teses/19990208-MSc-Keesje.Duarte.Pouw-Seguranca.na.arquitetura.TCPIP-De.firewalls.a.canais.seguros.pdf )

Livro: TANENBAUM, ANDREW S. Computer Networks 4a edição . EDITORA CAMPUS TRADUÇÃO: Vandenberg D. de Souza

RFC2460( http://www.ietf.org/rfc/rfc2460.txt )

  • Apontar as deficiências dos protocolos utilizados hoje (TCP/IP. Mostrar que não possuem capacidade para suportar as propostas.
  • Explicar que existe a necessidade de "dar" semântica aos protocolos, para que possam possibitar conexões entre informações, além de aproximar as camadas, reduzindo algumas destas.
  • Descrever como a Internet atual está limitada para as novas aplicações e métodos projetados para o futuro
  • Detalhar estas demandas
  • Análise, comparação e seleção das soluções atuais para a Internet do Futuro;
  • Justificar a escolha da melhor solução. A proposta inicial é o AutoI
  • Instalar, configurar, testar, corrigir e stressar a solução escolhida
  • Testar o protocolo FINLAN para substituir os atuais na execução da solução escolhida
  • Colher resultados de desempenho, tráfego e segurança
  • Comparar com as soluções convencionais

RNP participa de debate sobre o futuro da Internet

Nos dias 15 e 16 de abril de 2009 foi realizado o Workshop Futuro da Internet. Uma das discussões centrais destes dois dias de evento foi em torno da forma que a rede terá no futuro. Há pesquisadores que defendem que uma nova Internet deve ser criada, ou seja, que deve-se abandonar o protocolo IP (que também é nossa proposta), sobre o qual está fundamentada a Internet atual, e desenvolver uma base inteiramente nova sobre a qual a rede passará a funcionar. Esta idéia de “recomeçar a Internet do zero” é conhecida entre os pesquisadores como Clean Slate, ou arquitetura disruptiva. Atualmente, portanto, a Internet seria constituída por vários “remendos”, responsáveis por uma série de vulnerabilidades, instabilidades, incompatibilidades e outros problemas da rede. Os defensores do Clean Slate argumentam que uma Internet recalculada do zero seria mais robusta e confiável, com maior flexibilidade e facilidade de administração. Os que defendem o IP argumentam que este protocolo vem funcionando satisfatoriamente nos últimos 30 anos e que, embora uma mudança na Internet seja necessária, ela partirá de uma evolução do próprio IP, e não de uma ruptura com ele.

Possíveis soluções

O diretor de Inovação da RNP destacou o PlanetLab, uma infraestrutura mundial para a realização de pesquisas em tecnologias e protocolos de aplicações Internet (TCP/IP), atualmente presente em mais de 400 nós espalhados pelo mundo. A contribuição fundamental do PlanetLab para a realização de pesquisa experimental é o uso da virtualização de recursos computacionais nestes nós, permitindo que múltiplas aplicações possam ser instaladas paralelamente em cada nó, e que uma determinada aplicação possa estar presente em uma fração de muitos nós diferentes, o que é chamada de uma “fatia”.

Características:

  • Alcance mundial;
  • 1077 nós distribuídos em 571 sites;
  • Amplamente utilizado para testes de rede;
  • Baseado nos conceitos de Redes sobrepostas e Virtualização.

VANTAGENS:

  1. Teste de aplicações em escala global;
  2. Qualquer estação da Internet (TCP/IP) pode ser um nó.

DESVANTAGENS:

  1. Não é útil para testar idéias radicais para a Internet;
  2. Rede sobreposta rodando acima da rede TCP/IP;
  3. Herança de todos os problemas do TCP/IP.

Em 2006, o ambiente PlanetLab foi estendido para permitir experimentos com outras arquiteturas de Internet, além do TCP/IP. Este “meta-testbed” se chama Vini, e permite que os servidores nos nós possam funcionar como roteadores para diversos protocolos. A virtualização dos recursos em Vini inclui também os roteadores e os enlaces entre estes. O Vini serviu como inspiração para o Global Environment for Network Innovations (Geni), uma iniciativa da norte-americana National Science Foundation (NSF) para criação de um ambiente compartilhado de experimentação que auxilie na validação de novas arquiteturas de redes. Uma das palavras-chave do ambiente Geni é a virtualização, que permite que múltiplas arquiteturas funcionem em uma infraestrutura compartilhada, dando uma representação razoável da complexidade da Internet. Michael falou ainda de outras iniciativas similares ao Geni, como a européia Future Internet Research & Experimentation (Fire) e a japonesa Akari. O uso de Vini neste contexto requereria uma infraestrutura subjacente de camada 2 do modelo OSI, para poder implementar possivelmente múltiplos protocolos de rede (camada 3), sendo IP apenas uma das alternativas. GENI é um laboratório virtual para explorar a internet futuro em escala, criando grandes oportunidades para compreender, inovar e transformar as redes globais e suas interações com a sociedade. Dinâmico e adaptável, o GENI abre novas áreas de investigação nas fronteiras da ciência e da rede de engenharia, e aumenta a possibilidade de impacto sócio-económico significativo. O objetivo do GENI é melhorar a investigação experimental em redes e sistemas distribuídos , e acelerar a transição da investigação em produtos e serviços que irão melhorar a competitividade econômica. O GENI irá:

  • Fazer experimentação de apoio em escala em comum, heterogêneo, infra-estrutura altamente instrumentada;
  • Permitir a programação de profundidade em toda a rede, promovendo inovações na rede, ciência, segurança, tecnologias, serviços e aplicações;
  • Proporcionar ambientes colaborativos e exploratório para a academia, a indústria e o público para catalisar as descobertas revolucionárias e a inovação.

Os conceitos fundamentais para o conjunto das infra-estruturas do GENI são as seguintes:

  • Programação;
  • Virtualização e outras formas de partilha dos recursos;
  • Federação;
  • Corte com base em experimentação.

ANA - Autonomic Network Architecture

Objetivos

  • Identificar os princípios de redes autônomas que permitam aumentar em escala e funcionalidade essas redes.
  • Premissa: Aumentar a funcionalidade de uma rede significa aplicar princípios de redes autônomas como auto gerência, auto otimização, auto monitoramento, auto reparo e auto proteção.
  • Aumentar a funcionalidade de uma rede acaba por aumentar sua escala.
  • Explorar a "internet de-construcion, function atomization", difusão e sedimentação que irá substituir a camada estática atual.

Conceitos Técnicos

  • O conceito fundamental a qual a arquitetura é construída é o Information Dispatch Point (IDP).
  • IDPs são inspirados pelo trabalho de "network pointers" que são também similares de alguma forma a "file descriptors" e sockets de sistemas Unix.
  • IDPs são geralmente direcionados a blocos funcionais (FB). Blocos funcionais são unidades de processamento de informação que implementam funcionalidades de transmissão de dados (por exemplo enviar e receber pacotes IP) ou funcionalidades adicionais como monitoramento de tráfego.
  • A ligação de um IDP é dinâmica e pode mudar com o tempo assim que a "network stack" for reconfigurada.
  • De um ponto de vista de implementação, uma IDP é identificada por um gerador de rótulo randômico.
  • Afim de monitorar todos os blocos funcionais e IDPs disponíveis, existe uma entidade central em cada nó. Essa entidade possui duas tabelas: uma que descreve todos os blocos funcionais e uma segunda que salva os mapas entre IDPs e blocos funcionais. Essas tabelas são usadas para encaminhar mensagens entre blocos funcionais individuais.
  • O objetivo do IDP é basicamente: primeiro, ele provê uma comunicação genérica entre vários blocos funcionais rodando dentro de um nó e, segundo, ele provê flexibilidade na reorganização dos caminhos de comunicação.
  • Os direcionamentos do IDP são armazenados em uma tabela no nó onde cada IDP é identificada por um rótulo do nó local. Essa tabela é chamada de Information Dispacth Table (IDT). A IDT armazena o direcionamento entre valores de IDP e entidades como FB ou IC (information channels). Quando um pacote é enviado para alguma IDP, ele é encaminhado para o FB ou IC em que o IDP é associado. Após isso a entidade que recebe o pacote decide o que fazer: consumir o dado, adicionar um cabeçalho e reencaminhar o pacote para a próxima IDP, largar o pacote e etc.