Ações do documento

Governo Eletrônico e Interoperabilidade

O Programa de interoperabilidade governamental, que tem sido chamado abreviadamente de ePING, deve ser visto como um esforço de governança eletrônica bem pouco trivial em seus objetivos.


Renato Martini

Renato.Martini@planalto.gov.br

Diretor do Instituto Nacional de Tecnologia da Informação da

Casa Civil da Presidência da República


"People can’t share knowledge if they don’t speak a common

language" (T. Davenport)


O Programa de interoperabilidade governamental, que tem sido chamado abreviadamente de ePING, deve ser visto como um esforço de governança eletrônica bem pouco trivial em seus objetivos. Em geral, é o que ocorre com mudanças de paradigmas; a ousadia é então uma justa avaliação. Mas, interoperar não deve ser um mero atributo que se seja agregado externamente às tecnologias da informação. TI é, isto sim, e por sua própria natureza, interoperar. Devemos, por conseguinte, descartar tecnologias que não interoperam. O governo brasileiro não deve assimilar produtos tecnológicos, produtos de TI, para sua gestão, para seu funcionamento, que de antemão não interoperam. Não poder-se-á admitir que o governo tenha, exemplifiquemos, dois sistemas que operam em sua estrutura e estes gerem formatos de arquivos ou usem dispositivos que não se reconhecem reciprocamente. E após sua compra ou desenvolvimento, tempos depois, constate-se o problema, e se tenha que comprar conseqüentemente a solução tecnológica certa para interoperar os sistemas em questão. Com efeito, a literatura sobre engenharia de software considera o item interoperabilidade, entendida como "o esforço exigido para se acoplar um sistema a outro" (Roger Pressman, p.727), um fator de garantia de qualidade de software, conjuntamente com manutenibilidade, portabilidade, integridade, confiabilidade, etc.


O ePING é um programa que dividido em vários segmentos, cobre tópicos diversos das tecnologias da informação. Seu escopo é especificar e produzir padrões para o governo eletrônico, e alcançar razoáveis critérios de interoperabilidade. Ainda este ano teremos o que será a versão 0 da arquitetura do ePING. O Comitê Constituinte da arquitetura ePING é constituído pela SLTI do Ministério do Planejamento, o Serpro e o Instituto Nacional de Tecnologia da Informação – Casa Civil da Presidência da República. O intento deste Comitê, conjuntamente com diversos órgãos, ministérios, empresas públicas, é não somente a construção sistemática das especificações para o governo federal, mas também a construção de um modelo de gestão para o ePING.


Em novembro do ano passado este Comitê se reuniu para a avaliação geral sobre os padrões de interoperabilidade do governo brasileiro. Entre outras coisas, foi objeto de debate a experiência britânica do e-Government Interoperability Framework, um modelo amadurecido já em funcionamento há dois anos, e repleto de experiências a serem aprendidas.


Naquele momento ficou claro que nos deparávamos com alguns pontos sobremaneira consensuais. Vejamos. Aceitou-se que a plataforma web seria o padrão para todos os sistemas de informação da administração pública federal. A linguagem XML (Extensible Markup Language) seria o padrão de integração de dados; e o navegador (browser) a ferramenta padrão para interface nos sistemas de informação. A escolha do padrão XML é corretíssima. Padrão de dados universal, multi-plataforma, e livre de royalties – desenvolvida pelo XML Working Group para a World Wide Web Consortium (W3C) em 1996 -, ele quer superar os limites e o caráter fixo da linguagem de marcação consagrada da Internet, o HTML. Mas o XML é efetivamente uma estrutura e uma sintaxe, mas não uma semântica. Em outras palavras: "XML tem uma capacidade limitada para exprimir as relações entre objetos, sob a forma de um esquema ou de uma ontologia", afirmam com razão, em recente estudo, os professores Cécilia Costes e Roman Hervé da Universidade de Nantes na França. O que não os impediu, por outro lado, de asseverarem que o padrão XML está no coração da chamada "web semântica". Vejamos o problema de mais perto...


Após tais afirmações, temos que aceitar que a Internet, em especial a grande teia formada pela web, é plenamente compreensível, podemos dizer mesmo íntima, aos seres humanos, o que explica em grande sua popularização no fim do século XX. Mas para sistemas e redes informacionais não há a priori tanta compreensibilidade. Poder-se-á superar a deficiência de sistemas que somente compreendem a sintaxe com a realização de uma web semântica, alargando decisivamente o conceito real de web que hoje temos. O próprio Tim Berners-Lee fala na web semântica como uma extensão da web que hoje conhecemos, visando um melhor tratamento da informação, e permitindo às pessoas trabalhar em cooperação. Assim, em termos resumidos, o conteúdo "sem sentido", ou sem semântica, das páginas WWW devem ser estruturados. Assim sendo, serviços e provedores de serviços, - um serviço de governo disponível via web por exemplo -, podem ser executados a partir de tal estrutura de forma totalmente automatizada. Podendo o conteúdo na web ser utilizado automaticamente. Os softwares que fazem esta operação são chamados comumente de agents . Já é previsível os cenários tecnológicos que veremos, sobretudo os seus desafios: haverá a possibilidade de toda uma nova constelação de utilidades na web semântica, todavia teremos igualmente que resolver as relações entre os vários "agents" disponibilizados na Rede; facilitará (?) a relação e as interfaces entre o usuário e os sistemas informacionais.


Constatamos, anteriormente, que a linguagem XML tem a qualidade de ser uma integradora de dados, mas nos seus limites ela não tem uma semântica. Por isso, temos assistido à construção de várias linguagens para resolver tais lacunas, e que tem contado com o concurso da W3C. Deparamo-nos, também, com a retomada da questão das ontologias no mundo da web e com a questão da interoperabilidade nesta Rede semântica. Na definição de Elaine Rich e Kevin Knight, para a IA, sem dúvida uma ontologia preocupa-se com "as categorias que podemos quantificar e como essas categorias estão relacionadas entre si". Se queremos partilhar informação, necessitamos, por conseguinte, de uma "ontologia global bem-projetada" que especifique tipos de coisas, seus nexos possíveis, e também suas propriedades. Enfim, concluem os autores, tal "ontologia global deve proporcionar uma base mais sólida para os programas de IA específicos em cada domínio e deve também permitir que eles se comuniquem entre si". A assertiva final dos autores é sumamente importante pois coloca num ponto central o problema da interoperabilidade, o que a sua maneira chamam de "comunicação entre si". A frase de Davenport que abre este artigo nos adverte que não poder partilhar conhecimento se não sabemos do que falamos ou não temos uma linguagem comum. A ontologia aqui é uma ferramenta para tornar viável um vocabulário comum e unificado, para interoperar vários sistemas e para a engenharia de sistemas, modelando e especificando sistemas. Neste sentido, a Associação francesa de IA (AFIA) publicou recentemente, em abril de 2003, todo um dossiê sobre nosso tema, o Dossier Web sémantique. Aí se afirma com precisão que "a construção de uma Web semântica necessita de um certo número de trabalhos que permitam a pesquisa de informações e a busca de dados assim como a interoperabilidade entre fontes de dados heterogêneos. As ontologias estão no coração desse processo: vocabulário comum necessário à interoperabilidade, thesaurus semântico para a pesquisa da informação".


Pode parecer, à primeira vista ao leitor, que trata-se tão-somente de um debate teórico, entre a Ciência da cognição e especialistas em IA, e também a Ciência da informação. Entretanto, o mundo das Redes é um mundo prático. E há ipso facto um inquestionável plano operacional na web semântica. Poder-se-is dizer que ela se fundamenta em três linguagens: o XML, a RDF (Resource Description Framework) – a versão 1.0 aceita pela W3C em março de 2000 - e, por fim, as linguagens de construção de ontologias. Todavia, não é possível, nos limites e alcance deste pequeno artigo, explorar toda esta gama de novas linguagens, mas somente trazer para o leitor as implicações desta nova dimensão da WWW.


A RDF é uma linguagem declarativa ou descritiva para a descrição efetiva de "recursos" (ressources) informacionais. Ele deseja fazer mais "inteligente" a informação, e permite mais eficácia aos sistemas que analisam as páginas WWW. "Resources" são objetos com os quais uma URI (uniform resource identifier) são referenciáveis. Tudo o que é descrito pelas expressões RDF são "resources": um página web inteira, uma parte desta página, várias ligações entre páginas ou ainda algo que não é diretamente acessível pela web, como por exemplo um texto impresso. No modelo RDF, os "resources" têm atributos, que a partir de um significado específico, pode ter um valor. Sendo uma linguagem escalável, ela pode armazenar também metadados. E, além do mais, tendo a sua base no XML a RDF usa a sintaxe daquela.


As ontologias, como vimos, distanciam-se de suas origens, de uma disciplina especulativa para tornar-se uma ferramenta para a constituição da web semântica. Seu escopo é descrever, com certo nível de independência, os significados semânticos presentes na web, e, então, efetivar uma modelização na web semântica. A W3C trabalha hoje na convergência de duas importantes experiências em linguagens para construção de ontologias, - o que o Consórcio tem chamado de Ontology Web Language (OWL). Estas duas experiências – igualmente construídas a partir dos modelos RDF e XML – são respectivamente o padrão norte-americano e o europeu. O Darpa Agent Markup Language (DAML), como se pode notar, conduzida pelo Departamento de Defesa dos EUA, especialmente por sua Agência de projetos tecnológicos que esteve na própria origem da Internet nos anos sessenta. Na Europa encontramos a experiência da linguagem OIL, Ontology Inference Layer, levado a cabo pelo projeto On-To-Knowledge do programa europeu IST (Information Society Technologies). A presença marcante sobretudo do DoD norte-americano mostra o quanto o tema se reveste de relevância. Por certo, uma relevância de natureza técnica, mas, por outro lado, também político-institucional.


A construção de uma terminologia única com uma ontologia para o governo brasileiro, não é tarefa trivial. Pois, todos sabemos que na definição de uma palavra encontramos uma série de implicações de ordem política. Certamente, não é legítimo falarmos nem sequer em apenas um vocabulário ou uma ontologia. Uma das contribuições acadêmicas mais relevantes no tema está na Universidade de Stanford, em especial com as professoras Natalya Noy e Deborah L. McGuinness. São definidos vários passos para a construção de ontologias, tais como suas tarefas essenciais, suas expressões, sua definição de classes, assim a sua hierarquia de classes, a definição de propriedades de classes, atributos, etc. Destacaria, aqui, no entanto, a questão da reutilização de ontologias. Assim sendo, com a construção de "bibliotecas de ontologias" e seu compartilhamento. "Reutilizar ontologias existentes pode ser um requisito se nosso sistema necessita interagir com outras aplicações que já se engajaram em ontologias particulares ou vocabulários controlados", afirmam as professoras de Stanford. Pode, por conseguinte, ser formada toda uma infra-estrutura de ontologias, em formato de extensas bibliotecas, que poderão, ser compartilhadas. No âmbito governamental é imprescindível que tais bibliotecas de ontologias se façam acessíveis. Para tanto, desde já, devemos resguardar a padronização de seus formatos. Mas já existem experiências positivas neste caminho; já existem soluções livres para tanto: são chamadas de "bibliotecas livres" para ontologias, como, por exemplo, a Ontolingua da Universidade de Stanford e a Biblioteca DAML.

É curiosa a relação das ontologias, como instrumental da web semântica, e a Ontologia como disciplina da Filosofia. Assim definida, a Ontologia cumpria um papel de enorme pretensão, como conhecimento de tudo o que existe, como conhecimento da Realidade mesma. As linguagens XML, o modelo RDF e as ontologias querem também semelhante pretensão, mas, agora, da realidade do mundo das Redes, e a web que pode ser ensejada.



REFERÊNCIAS:


Martin Kost. Web Ontology Language (OWL) bzw. DAML+OIL: http://www.dbis.informatik.hu-berlin.de/lehre/WS0203/SemWeb/artikel/4/Kost_SemWeb-OWL-Ausarbeitung.pdf


Web Intelligenz – Wissensrepräsentation und Wissensentdeckung im Internet: http://www-i5.informatik.rwth-aachen.de/lehrstuhl/lehre/WebIntelligenz/Themen.html


R. Knight & E. Rich. Inteligência Artificial. São Paulo, Makron Books, 1993 (2a. edição).

R. Pressman. Engenharia de Software. São Paulo, Makron Books, 1995.

Association Française pour l'Intelligence Artificielle. Bulletin de l'AFIA: Dossier Web sémantique, 2003 (54).

C. Costes & R. Hervé. Les Technologies Émergentes du Web Sémantique (Rapport de projet). Nantes, Ecole polytechnique de l'Université de Nantes. Projet SILR3, 2001/2002.

J. Davies, A. Duke, and A. Stonkus. "OntoShare: Using Ontologies for Knowledge Sharing". Proceedings of the WWW2002 Semantic Web workshop, 11th International WWW Conference WWW2002, Hawaii, USA, 2002.

N. F. Noy & D. L. McGuinness.Ontology Development 101: A Guide to Creating Your First Ontology, http://www.ksl.stanford.edu/people/dlm/papers/ontology-tutorial-noy-mcguinness-abstract.html.







3 - Governo Eletrônico e Interoperabilidade (TEMA) (versão Revista Tema)

ipv6
 
SoftwarePublico
 
Serpro
 
Portal Brasil
 
 

Impulsionado pelo Plone

Este site está em conformidade com os seguintes padrões: