BIG DATA E O DIREITO INTERNACIONAL – nelmon j. silva jr.

BIG DATA E O DIREITO INTERNACIONAL

BIG DATA AND INTERNATIONAL LAW

SILVA JR., Nelmon J.1

RESUMO: Ensaio sobre tecnologias da informação e as devidas transformações no direito internacional.

PALAVRAS-CHAVE: IBM. Big Data. Smart Planet. Sigilo. Legislação.

ABSTRACT: Essay on information technology and the necessary transformations in international law.

KEYWORDS: IBM. Big Data. Smart Planet. Secret. Legislastion

Para uma compreensão clara sobre o tema, podemos citar o dado de que no ano de 2009, todo o volume de dados na internet atingiu o espeço de 0,5 (meio) ZB (ZetaBytes); sendo previsto para o próximo ano (2015), um volume aproximado de 8 (oito) ZB. Aliado a isto, estima-se que esse volume dobre a cada 18 (dezoito) meses; ou que 90% (noventa por cento) dos dados criados no mundo, deram-se nos últimos 2 (dois) anos. Para ter-se ideia, 1 (um) ZB, equivale, aproximadamente, a um bilhão de HD`s (Hard Disc) dos computadores convencionais; e pasmem, tudo que foi dito pela humanidade, em todo o tempo, se digitalizado, ocupariam 42 (quarenta e dois) ZB`s.

Diante desta caótica e preocupante realidade, especialistas da IBM, desenvolveram um software que cria um sistema de armazenamento, conhecido como Big Data (em português, Mega Dados), alicerçado no conceito 5 (cinco) “V” – Velocidade, Volume, Variedade, Veracidade e Valor – conceitualmente diferente dos então utilizados Data Warehouse (Armazém de Dados), que é um conjunto de dados baseado em assuntos integrados, não voláteis, variáveis em relação ao tempo, e destinado a auxiliar em decisões de negócios, diferente do Big Data que se baseia em grande volume de dados, voláteis ou não, com maior velocidade. E também em vez de criar um subconjunto limpo de dados do utilizador para os colocar numa “data warehouse” e serem consultados a partir de um número limitado de formas pré-determinadas, o software de Big Data recolhe todos os dados que uma organização gera e permite que os administradores e analistas se preocupem em como usá-los mais tarde.2

Pensarmos que essa realidade não existe é, minimamente, infantil. O filme entitulado Moneyball (traduzido para nosso mercado cinematográfico como O homem que mudou o jogo), mostra a utilidade prática do uso do Big Data. Desnecessário citarmos que o mercado de trabalho advindo desta inovadora tecnologia é simplesmente inimaginável e promissor. Apenas como exemplo, o problema é a escassez de profissionais, que terão de se adaptar a tal tecnologia, com a previsão que em 2018 só os Estados Unidos podem enfrentar a falta de 140 mil a 100 mil com profundas capacidades analíticas.3; tanto assim que a IBM fundou a Big Data University4.

O Big Data utiliza-se da estrutura do quadro MapReduce (Redução do Mapa), que oferece um modelo de processamento paralelo e implementação associada para processar grande quantidade de dados, mediante a replicagem do(s) algorítmo(s). A implementação do framework (vigamento, entendido como estrutura) MapReduce, foi adotado por um projeto de código aberto, da Apache, nomeado Hadoop (uma plataforma de software em Java, voltada para clusters (grupos) e processamento de grandes massas de dados).

Através da metodologia MIKE2.0 (abordagem de fonte aberta para gerenciamento de informações), em 09.03.2013, foi lançado o artigo Big Data Definition (Definição de Mega Dados), e na sequência, em 08.12.2013, lançado o artigo Big Data Solution Offering (Oferecendo Soluções para Mega Dados), o que podemos entender como a Certidão de Nascimento do Big Data. Em simples análise, o Big Data utiliza uma arquitetura de camada múltipla aliada à arquitetura de processamento paralelo melhora a velocidade de processamento em um database management system (DBMS) paralelo.

Anterior a esse momento histórico, já vinha sendo desenvolvida pela comunidade científica modelos computacionais como o Grid Computing (Computação em Grade), capaz de alcançar uma alta taxa de processamento dividindo as tarefas entre diversas máquinas, podendo ser em rede local ou rede de longa distância, que formam uma máquina virtual. Esses processos podem ser executados no momento em que as máquinas não estão sendo utilizadas pelo usuário, assim evitando o desperdício de processamento da máquina utilizada.

Na base da atual computação em grelha estão os aglomerados de computadores, ou computadores localizados em diferentes centros de cálculo, ligados entre si por uma rede de alto débito, em Rede Provada Virtual (VPN), por questões de segurança.

Nos anos 90 uma nova infraestrutura de computação distribuída foi proposta visando auxiliar atividades de pesquisa e desenvolvimento científico. Vários modelos desta infra-estrutura foram especificados, dentre elas, a tecnologia em grade, em analogia às redes elétricas (power grids), se propõe em apresentar ao usuário como um computador virtual, a VPN, mascarando toda a infra-estrutura distribuída, assim como a rede elétrica para uma pessoa que utiliza uma tomada sem saber como a energia chega a ela.

Uma outra tecnologia de grelha é a P2P (peer-to-peer) que permite a interconecção de computadores pessoais para se trocar dados, ficheiros, etc.

No meio científico já pode-se encontrar várias grades em funcionamento, espalhados por vários países, muitos sendo projetos multi-institucionais. Como exemplos tem-se:

  • EGI (European Grid Infrastructure);

  • CERN openlab 9;

  • Datagrid, do CERN, um projeto financiado pela Comunidade Europeia com o objetivo de atuar em áreas de pesquisa como astronomia, física e biologia;

  • BIRN, projeto multi-institucional que conta com quinze universidades norte-americanas, voltado para a pesquisa neurológica

  • Mammogrid, uma iniciativa da comunidade européia para formar uma base de mamografias que abrange toda a Europa com intuito de fornecer material de estudo e campo para o desenvolvimento de tecnologias em grade.

No Brasil um bom exemplo é o Sprace, projeto de grade do Instituto de Física da USP, que participa no processamento dos dados provenientes do projeto D0 (projeto que reúne pesquisadores do mundo todo para analisar os dados gerados pelo acelerador de alta energia Tevatron Collider, localizado em Illinois, Estados Unidos).5

A derivação lógica desses modelos computacionais, foi o que hodiernamente conhecemos como Cloud Computing (Computação em Nuvem), que refere-se à utilização da memória e das capacidades de armazenamento e cálculo de computadores e servidores compartilhados e interligados por meio da Internet, seguindo o princípio da computação em grade.

 O armazenamento de dados é feito em serviços que poderão ser acessados de qualquer lugar do mundo, a qualquer hora, não havendo necessidade de instalação de programas ou de armazenar dados. O acesso a programas, serviços e arquivos é remoto, através da Internet – daí a alusão à nuvem. O uso desse modelo (ambiente) é mais viável do que o uso de unidades físicas.

Num sistema operacional disponível na Internet, a partir de qualquer computador e em qualquer lugar, pode-se ter acesso a informações, arquivos e programas num sistema único, independente de plataforma. O requisito mínimo é um computador compatível com os recursos disponíveis na Internet. O PC torna-se apenas um chip ligado à Internet — a “grande nuvem” de computadores — sendo necessários somente os dispositivos de entrada (teclado, mouse) e saída (monitor).6

Pois bem, penso que se o Big Data Definition, e o Big Data Solution Offering, podem ser entendidos como a(s) Certidão(ões) de Nascimento do Big Data, o conceito Grid Computing, que originou o conceito Cloud Computing, são o “gameta fecundado” originador do (supra)conceito Big Data.

Ocorre que a precária colheita de dados desse tão jovem conceito, foi capaz de alertar os cientistas para algumas realidades, o que, ao meu ver, originou outro conceito, mundialmente perseguido, ou seja, o conceito (“vendido” como solução) Smart (Inteligente), igualmente idealizado pela IBM, e suas derivações: a original, Smart Planet (Planeta Inteligente); Smart Cities (Cidades Inteligantes); Smart Houses (Casas Inteligentes); Smart Water (Àgua Inteligente); e suas Smarts variáveis.

IBM Power Systems

Inovação aberta para colocar os dados em funcionamento

Forças eficazes estão mudando a maneira como os negócios são feitos. Big data e analítica, nuvem e dispositivo móvel estão fornecendo oportunidades sem precedentes para descobrir insights, aumentar a eficiência e alcançar clientes. Hoje, a IBM apresenta novas soluções e a primeira geração de sistemas com a inovação aberta do processador POWER8 e a arquitetura entregando insights mais rápidos de maneiras que nunca foram possíveis anteriormente.

Obtenha insights até 50 vezes mais rápidos com sistemas projetados para big data

Construídos para trazer insights ao ponto de impacto, esses sistemas de primeira geração são a plataforma ideal para aplicativos de analítica com power computing largura da banda de memória, aceleração de E/S e inteligente. Esses novos sistemas estendem um legado de resiliência, disponibilidade e segurança para big data, analítica e escala para executar os requisitos de dados mais imperativos.7

 

O Sentimento Social nos negócios nos esportes

O brasileiro é um dos povos mais atuantes nas redes sociais. Em 2012, o Brasil era o país com maior participação no Twitter segundo Pesquisa “State of Mobile Web” realizada pelo Browser Opera com dados de 190 países. No número geral de usuários de internet, 23% dos que usavam a ferramenta eram brasileiros.

Vire o jogo nos negócios com Big Data & Analytics

Em um mundo onde os dados se multiplicam de forma acelerada, transformar informação em insights pode ser fundamental para empresas de sucesso.

O que o mundo está fazendo hoje?

Nós vivemos em um planeta mais inteligente onde dados, mobile, social e cloud estão transformando indústrias e permitindo a criação de valor de novas maneiras. São vários casos em todos os lugares. Feito com IBM.8

Esses são alguns dos exemplos prático-comerciais possíveis ofertados pela IBM, em seu sítio virtual. A realidade advinda dos cálculos realizados pelo Big Data, no ambiente de Nuvem são inimagináveis, isso porque rodam em DB2, que é um Sistema Gerenciador de Banco de Dados Relacionais (SGDBR) produzido pela IBM. Existem diferentes versões do DB2 que rodam desde num simples PDA (computador de mão), até em potentes mainframes e funcionam em servidores baseados em sistemas Unix, Windows, ou Linux. Tal sistema é baseado em SQL/DS para seu mainframe. As novas versões já são avaliadas para OS/2 e é chamada DB2/2.9

Creio que através da interpretação dos resultados obtidos pelos cálculos realizados pelo Big Data nos dados arquivados em nuvem(s), chegamos a realidade atual, responsável por causar a maior revolução sócio-cultural observada pelo homem desde as transformações advindas da era Iluminista. Fundamento meu entendimento, à exemplo, na criação de ambientes como Cousera10 ou Universia Brasil11, onde gratuitamente compartilha-se o saber (científico) humano a quem demonstre interesse, o que em décadas passadas seriam algo minimamente impensável.

Ao navegarmos nos ambientes acima citados, percebemos claramente alguns vetores quanto à sociabilização do conhecimento científico: prevenção do diabetes; fontes de energia sustentáveis; preservação das águas; transnacionalização e universalização legal; combate ao terrorismo e crime cibernético; modelo pedagógico universal; diminuição dos contrastes sociais entre os diferentes Estados; dentre outros.

Tal realidade fez-me lembrar quando argumentei que as Nações, de um modo geral, já aperceberam-se da necessidade de realizarem mudanças profundas (sociais, políticas, educacionais, jurídicas, etc), as quais fazem-nos partir para as devidas reflexões. Sabemos que as Constituições são a Lei Maior de suas Nações, vez que constituem o Contrato Social de seu povo. Pois bem, o que parece estar esquecido é que acima das Constituições existem os Princípios Gerais de Direito – princípios estes Universais.

Ainda, sendo as Constituições estribadas em Princípios Universais de Direito, fácil entendermos que os Estados, de certa forma, estarão interligados principiologicamente, e portanto também o estarão no âmbito judicial.

As mudanças necessárias às diferentes Nações não afetarão apenas o seu Povo, mas também àqueles aos quais estão interligados (legal, comercial, cientificamente, etc). Por óbvio devemos reinterpretar os diversos conceitos, em especial quanto à soberania e ideologia.

A tendência à futura globalização socialista explicita em sua obra, far-se-á legitimada quando garantidos os direitos/interesses sociais pelo(s) Estado(s), e não pelo capital, como equivocadamente fez-se no passado.12

Mas porque fazer trazer tal referência? Ocorre que um dos maiores problemas quanto à gerência do amplo conceito Big Data, reside na (anti)jurisdicionalidade quanto ao uso das informações sigilosas dos cidadãos que (mesmo sem saber) acabam alimentando esse complexo banco de dados com suas mensagens, posts e fotografias, publicado(a)s nas redes sócias. Sugiro a adesão pelos usuários à disponibilização socializada de suas informações, desde que previamente alertados de que a gravação de seus dados privados dar-se-ão em nuvem, portanto sujeitos a ação do Big Data. Em melhores palavras, o que proponho é a prévia autorização pelos usuários quanto ao uso sociabilizado de suas informações (pelo Big Data) divulgadas na rede, desde que assegurados aos legítimos titulares os direitos inerentes ao uso comercial da propriedade intelectual.

Parece-me, relativamente, simples o entendimento (e aplicação) dessa proposta, senão vejamos. As licenças conhecidas como Creative Commons (CC), trouxeram mais que facilidade do registro das propriedades intelectuais humanas, trouxeram a “quebra” de alguns direitos exclusivos aos Copyrights, e por via lógica de consequência, menor formalidade quanto à permissão de uso do “alheio”, principalmente no ambiente virtual, especialmente se falarmos dos ambientes educacionais. Exemplo clássico é a possibilidade de reprodução (total ou parcial) de filmes blindados por Copyright, em salas de aula, inclusive quando em ambientes virtuais.

Aos cientificamente céticos em relação à minha proposta, faço minhas as palavras de Mary Shelley: A invenção, devo modestamente admiti-lo, não consiste em criar disciplinadamente, mas sim em criar a partir do caos.

—X—

For a clear understanding on the subject, we mention that the data in 2009, the entireamount of data on the internet as much space reached 0.5(half) ZB (zetabytes); being planned for next year (2015), a volume of approximately eight ZB. Allied to this, it is estimated that the volume doubles every eighteen months; or 90% (ninety percent) of the data created in the world, gave up the last two years. Idea is to have one ZB, equivalent to approximately one billions Hard Discs conventional computers; andamazingly, all that was said by mankind, in all the time, if digitized, would occupy42 forty-two Zbs.

Given this chaotic and disturbing reality, experts from IBM, developed software that creates a storage system, known as Big Data, conceptually different from the previously used Data Warehouse, which is based on a set of integrated, non-volatile data subjects, variables with respect to time, and intended toassist in business decisions, unlike the Big Data which relies on large amounts of data, volatile or not, with greater speed. Also, instead of creating a clean subset of user data to put in a “data warehouse” and be queried from a limited number of predetermined forms, software Big Data collects all data that an organization generates and allows administrators and analysts worry on how to use them more lattely.13

Think that this reality does not exist is minimally child. The movie titled Moneyball, shows the practical utility of the use of Big Data. Needless cite the labor market arising from this innovative technology is simply unimaginable and promising. Just as an example, the problem is the shortage of professionals, who have to adapt to such ‘technology, with the prediction that in 2018, only the United States may face a lack of hundred-forty to hundred thousand, with deep capabilities analítics.14; so much só that IBM founded the Big Data University.15

In the Big Data is used MapReduce frame structure, offering a model of parallel processing and associated to process large amounts of data through the replicaions algorithms implementation. The implementation of the framework MapReduce, was adopted by an open source project, the Apache Hadoop appointed (a software platform in Java, focused on clusters and processing of large data sets).

Through the MIKE2.0 methodology (open source approach to information management), in 03/09/2013, the article Big Data Definition was launched, and following on 12/08/2013, launched the article Big Data Solution Offering, we can understand how the birth certificate of Big Data. In simple analysis, Big Data architecture uses a multi-layer combined with parallel processing architecture improves the processing speed in a database management system (DBMS) parallel.

Previous to this historic moment, had already been developed by the scientific community computational models as Grid Computing, able to achieve a high processing rate by dividing the tasks between multiple machines, and may be in LAN or WAN forming a virtual machine. These processes can be running at the time that the machines are not being used by the user, thus avoiding waste processing machine used.

On the basis of current grid computing clusters of computers, or computers located in different data centers, linked together by a network of high-speed, in Proved Virtual Network (VPN), for security are.

In the 90s a new distributed computing infrastructure has been proposed aiming to helps cientific research and development activities. Several models of this infrastructure were specified, among them, the grid technology, in analogy to electrical networks (powergrids), it is proposed to present to the user as a virtual computer, VPN, masking the whole distributed infrastructure, só like the electric grid for a person who uses a socket without knowing how energy reaches it.

Another grid technology is P2P (peer-to-peer) that allows interconnection personal computers to exchange data, files, etc.


In scientific circles now can find several bars in operation, spread over several countries, many being multi-institutional projects. As examples we have:

  • EGI (European Grid Infrastructure);

  • CERN OpenLAB 9;

  • Datagrid, CERN, a project funded by the European Community with the objective of working in research areas such as astronomy, physics and biology;

  • BIRN, multi-institutional project that has fifteen U.S. universities, facing neurological research;

  • Mammogrid, an initiative of the European community to form a base that cover smammograms throughout Europe in order to provide the study material and field for the development of Grid technologies.

In Brazil is a good example are Sprace, design grid of the Institute of Physics to USP, which participates in the processing of data from the D0 project (project bringing together researchers from around the world to analyze the data generated by high-energy accelerator Tevatron Collider, located in Illinois,US).16

The logical derivation of these computational models, which in our times, was known as Cloud Computing, which refers to the use of memory and storage capacities and calculation of shared computers and servers, interconnected through the Internet, following the principle of grid computing.

The data storage is done in services that can be accessed from anywhere in the world, anytime, with no need for installing software or storing data. Access to programs, services and remote files is through the internet – hence the allusion to the cloud. The use of this model (environment) is more feasible than the use of physical units.


In available on the Internet, from any computer, anywhere operating system, you can have access to information, files and programs into a single system platform independent. The minimum requirement is compatible with the resources available on the internet computer. The PC becomes just one chip connected to the Internet – the “great cloud” of computers – the input devices (keyboard, mouse) and output (monitor) is needed only.
17

Well, I think if the Big Data Definition and the Big Data Solution Offering can be understood as the Certificate of Birth of Big Data, Grid Computing concept, which originated the concept of Cloud Computing, are “fertilized gamete” of Big Data concept.

Is that poor data collection such as young concept, was able to alert scientists to some realities, which, in my view, gave another concept worldwide persecution, in other words, the Smart concept, also designed by IBM, and its derivatives: Smart Planet; Smart Cities; Smart Houses; Smart Water.

IBM Power Systems


Open to put the data into functioning innovation


Effective forces are changing the way business is done. Big Data and analytics, cloud and mobile are providing unprecedented opportunities to discover insights, increase efficiency and achieve customers. Today, IBM introduces new solutions and first-generation systems with open innovation Power8 processor architecture and delivering faster insights in ways that were never before possible.


Get insights up to 50 times faster with systems designed for Big Data.

Built to bring insights to the point of impact, these first generation systems are ideal for analytical applications with computing power wide memory band width, acceleration E/S and intelligent platform. These new systems extend a legacy of resilience, availability and security to Big Data, analytics and scale to execute the requirements of the most imperative data.

The Social Feeling in business in sports

The Brazilian is one of the most active people in social networks. In 2012, Brazil was the country with the second largest share in Twitter Search “State of the Mobile Web” performed by Opera Browser with data from 190 countries Overall number of internet users, 23% of those who used the tool were Brazilian.

Turn the game in business with Big Data & Analytics

In a world where data are multiplying at an accelerated rate, turn information into insightsmay be crucial to successful enterprises.

What the world is doing today?

We live in a smarter where data, mobile, cloud and social are transforming industries and allowing the creation of value in new ways planet. Several cases everywhere. Made withIBM.18

These are some examples of practical and commercial potential offered by IBM in your virtual site. The reality arising from the calculations performed by Big Data in the Cloud environment is unimaginable, because it runs on DB2, which is a Management System for Relational Databases (SGDBR) produced by IBM. There are different versions of DB2 that run from a single PDA (handheld computer), even in powerful mainframes and run onservers based on Unix, Windows, or Linux systems. This sistem is based on SQL/DS for your mainframe. The new versions are already assessed for OS/2 and is called DB2/2.19

I believe that through the interpretation of results obtained by calculations performed by Big Data in the data stored in the cloud(s), we get the current reality, responsible for causing the largest socio-cultural revolution observed by man since the transformations arising from the Enlightenment era. I rest my understanding, the example in creating environments as Cousera20 or Universia Brazil21, where free if sharing-knowledge (scientific) human who shows interest, which in past decades would be minimally something unthinkable.

When navigating in the above environments, we clearly perceive some vectors as the socialization of scientific knowledge: prevention of diabetes; sustaintable energy sources; water conservation; Legal transnationalization and universaliztion; combating terrorism and cybercrime; universal pedagogical model; reduction of social contrasts between the different States; among others.

This reality made me remember when I argued that nations, in general, already have realized the need to perform deep (social, political, educational, legal, etc.) changes, which make us go to the appropriate reflections. We know that the Constitutions are the highest law of their Nations, as they constitute the Social Contract of his people. Well, what seems to be forgotten is that above the Constitutions are the general principles of law – these Universal principles.

Still, with the Constitutions tirrups in Universal Principles of Law, easy to understand that the States, in a way, will be interconnected principiologic, and therefore also will be in the judicial sphere.

The changes required to the different Nations did not affect only his people, but also those which are interconnected (legal, commercial, scientific, etc.). For obvious we reinterpretthe various concepts, in particular regarding sovereignty and ideology.

The trend towards globalization socialist future explicit in his work, it will let itself belegitimated as guaranteed rights/social interests by the State(s), and not by capital,as mistakenly made up in past.22

But why do bring such a reference? It happens that one of the biggest problems regarding the management broad concept of Big Data, lies in the (anti) jurisdictionality regarding the use of sensitive citizens who (even unknowingly) end up feeding this complex database with your posts, informations and photographs, published in networks. Suggest adherence by users to socialized providing your information, if previously warned that recording your private data will be giving cloud therefore subject to the action of Big Data. In better words, what I propose is the permission for users and socialized the use of your information (for Big Data) disclosed in the network, since it provided to holders legitimate inherent rights to the commercial use of intellectual property.

It seems relatively simple understanding (and application) of this proposal, but let’s see. The licenses known as Creative Commons (CC), which brought more ease of registration of human intellectual properties, brought the “break” of some exclusive rights to Copyrights, and logical way of consequence, less formality regarding permission to use the “alien ” especially in the virtual environment, especially if we speak of educational environments. Classic example is the possibility of reproduction (total or partial) of films screened by Copyright in classrooms, even when in virtual environments.

To scientifically skeptical of my proposal, I echo the words of Mary Shelley: The invention must modestly admit it, is not to create a disciplined, but to create out of chaos.

1ADVOGADO CRIMINAL ESPECIALISTA EM DIREITO (PROCESSUAL) PENAL, CIBERCRIMES E CONTRATERRORISMO; CIENTISTA E ESTUDIOSO DO DIREITO (PROCESSUAL) PENALCV Lattes: http://lattes.cnpq.br/7382506870445908

1.MANTENEDOR DOS BLOGS CIENTÍFICOS: https://ensaiosjuridicos.wordpress.com http://propriedadeindustriallivre.wordpress.com

2. CIENTISTA COLABORADOR: Universidade Federal de Santa Catarina – UFSC (Portal de e-governo – BR) Glocal University Network (IT) – Universiteit Leiden (ND) – University of Maryland (US) – Comissão Européia (Direcção-Geral de Pesquisa e Inovação – UE).

3. MEMBRO: Centro de Estudios de Justicia de las Américas (CEJA – AL); Instituto de Criminologia e Política Criminal (ICPC); Associação Brasileira dos Advogados Criminalistas (ABRACRIM); Associação dos Advogados Criminalistas do Paraná – (APACRIMI); International Criminal Law – (ICL – EUA); National Association of Criminal Defense Lawyers (EUA); The National Consortium for the Study of Terrorism and Resposes to Terrorism (START – EUA); e International Center to Counter-Terrorism – The hague (ICCT – HOL).

4. MEMBRO FUNDADOR: Associação Industrial e Comercial de Fogos de Artifícios do Paraná/PR; e AINCOFAPAR (Conselheiro Jurídico), Associação Bragantina de Poetas e Escritores

5. COLABORADOR DAS SEGUINTES MÍDIAS: www.arcos.org.br www.conteudojuridico.com.br http://artigocientifico.uol.com.br http://www.academia.edu/http://pt.scribd.com/http://www.academicoo.com/ http://www.jusbrasil.com.br/http://pt.slideshare.net/http://www.freepdfz.com/, dentre outras.

6. AUTOR DOS SEGUINTES LIVROS CIENTÍFICOS: Fogos de Artifício e a Lei Penal (2012); Coletânea (2013); Propriedade Intelectual Livre (2013); e Cibercrime e Contraterrorismo (2014).

7. AUTOR DOS SEGUINTES LIVROS LITERÁRIOS: Valhala (1998); Nofretete (2001); e Copo Trincado (2002).

2Fonte: http://pt.wikipedia.org/wiki/Big_data. Acesso em : 26.07.2014.

3Óp, cit. 2.

9Fonte: http://pt.wikipedia.org/wiki/DB2. Acesso em: 26.07.2014.

12SILVA JR., Nelmon J. Ideologia e Soberania. Curitiba. 2013. Artigo disponível em: https://ensaiosjuridicos.wordpress.com/2013/06/02/ideologia-e-soberania-nelmon-j-silva-jr/. Acesso em: 26.07.2014.

13Óp. cit. 2.

14Óp. cit. 3.

15Òp cit. 4.

16Óp. cit. 5.

17Óp. cit. 6.

18Óp. cit. 8.

19Óp. cit. 9.

20Óp.cit. 10.

21Óp.cit. 11.

22Óp. cit. 12.

CLIQUE NO LINK PARA TER ACESSO AO DOCUMENTO (formato .PDF):

BIG DATA E O DIRIETO INTERNACIONAL-SILVA JR