Veja neste artigo uma análise sobre os Conceitos Iniciais de Big Data, da disciplina Fluência de Dados, para o concurso da Receita Federal.
O edital do concurso da Receita Federal finalmente foi publicado. Estão sendo ofertadas 699 vagas, sendo 230 para o cargo de Auditor Fiscal e 469 para Analista, com remunerações iniciais de R$ 21.029,09 e R$ 11.684,39, respectivamente.
Dessa maneira, neste artigo, realizaremos um resumo sobre os Conceitos Iniciais de Big Data, da disciplina Fluência de Dados, para o concurso da Receita Federal.
Vamos lá?
Primeiramente, o que é Big Data?
Bom, Big Data é o termo utilizado para designar a captura, o gerenciamento e a análise de um grande e complexo volume de dados estruturados ou não estruturados.
Como consequência do rápido avanço da tecnologia, grandes quantidades de dados são rapidamente gerados, por diversos meios. Dessa maneira, é importante que haja um gerenciamento adequado, com o intuito de superar os desafios encontrados nessa área, como a análise eficaz desses dados, o seu armazenamento, compartilhamento, visualização, entre outras situações.
A geração desses dados pode ser advinda de diversas fontes, como sensores de máquinas, smartphones, bancos de dados empresariais, entre outras.
Tais dados são geralmente extraídos de arquivos não estruturados, como sensores, vídeos e imagens, os quais podem gerar milhares de dados em um curto espaço de tempo. Contudo, vale salientar que o Big Data também pode ser formado por dados estruturados.
PARA FIXAR: É importante que você tenha em mente que o Big Data não se refere apenas aos dados, mas também às soluções tecnológicas utilizadas para realizar o seu gerenciamento de maneira eficiente.
Um exemplo disso é o chamado Big Data Analytics, o qual diz respeito à análise de grandes quantidades de dados, sejam eles estruturados ou não estruturados.
Há quatro principais tipos de análise de dados, no que diz respeito ao Big Data. São elas:
São inúmeras as aplicações do Big Data, em praticamente todas as áreas, como no desenvolvimento de mercado, inovação, desenvolvimento de produtos e serviços, eficiência operacional, previsões de demanda de mercado, detecção de fraudes, gerenciamento de riscos, previsão de concorrência, vendas, campanhas de marketing, avaliação do desempenho de funcionários, alocação do orçamento anual, estabelecimento de previsões financeiras, identificação de potenciais compradores, entendimento da base de clientes, entre outras aplicabilidades.
Dessa maneira, não é difícil encontrar empresas e órgão públicos que realizam um alto investimento em Big Data e análise de dados, uma vez que eles trazem melhores resultados financeiros, devido a uma melhor visão dos cenários dos seus negócios.
Um exemplo disso é a procura, pela Receita Federal, de Auditores e Analistas Fiscais que possuem conhecimento neste assunto.
As premissas, também conhecidas como domínios, são os elementos estudados para analisar a possibilidade de implementação do Big Data.
É comum você encontrar em algumas literaturas apenas três itens, chamados de 3Vs (Variedade, Velocidade e Volume), os quais estão definidos abaixo:
Contudo, em literaturas recentes, novas premissas foram adicionadas ao Big Data. Abaixo você pode conferir duas delas, as mais importantes e mais cobradas, (Valor e Veracidade), formando o chamado 5Vs:
A SABER: Além dos 5Vs, que são as premissas mais presentes em provas, há autores que já pontuaram a existência do 10Vs, agregando os conceitos de variabilidade, validade, vulnerabilidade, volatilidade e visualização.
A IBM, importante empresa da área de tecnologia, trouxe alguns padrões que podem ser utilizados para definir a arquitetura de soluções de Big Data. Vamos estudá-los a partir de agora.
Os padrões atômicos são aqueles que ajudam na identificação do modo que os dados são consumidos, processados, armazenados e acessados por problemas recorrentes, a nível de Big Data.
Já os padrões compostos, por sua vez, são classificados com base na solução de ponta a ponta. Eles são mapeados para um ou mais padrões atômicos, com o objetivo de resolver determinado problema.
Por fim, os padrões de solução também ajudam na definição do melhor conjunto de componentes, baseado na necessidade dos negócios em descobrir e explorar dados.
A SABER: É importante destacar que não existe uma sequência definida de aplicação dos padrões acima nas soluções de Big Data.
O Hadoop é uma importante ferramenta de gerenciamento de Big Data. Ele consiste em uma plataforma de código aberto, o qual é usado na análise e processamento de grandes quantidades de informações, por meio de máquinas convencionais e comuns.
Ele é bastante utilizado mundialmente, estando presente em grandes empresas de tecnologia, como Twitter e Facebook.
Outra importante informação é que o Hadoop é um projeto Apache, sendo que seu desenvolvimento é realizado por uma rede de colaboradores e empresas, de maneira conjunta, por ser um software livre e de código aberto.
A utilização do Hadoop oferece diversas vantagens no mundo tecnológico, como a economia, uma vez que ele é de código aberto, não sendo necessário comprá-lo. Além disso, ele possui uma boa robustez e simplicidade de uso.
Finalizando o nosso artigo, vamos falar sobre a inteligência artificial.
A inteligência artificial é uma tecnologia capaz de manipular quantidades massivas de dados. Nesse sentido, percebe-se que ela é uma ferramenta a ser utilizada juntamente com o Big Data.
Ela é composta por pesquisas, métodos, tecnologias e sistemas de aplicação para simular a extensão e expansão da inteligência humana, permitindo que as máquinas realizem algumas tarefas complexas que requerem, em geral, humanos inteligentes para que sejam concluídas.
Um dos exemplos é o ChatBot, muito utilizado em sistemas de atendimento ao público por órgãos e empresas. Trata-se de um programa de computador capaz de simular um ser humano na interação com os clientes. O seu principal objetivo é responder as perguntas de tal forma que as pessoas tenham a impressão de estar conversando com outra pessoa, e não com um mero programa de computador.
Quando o cliente envia uma pergunta, em linguagem natural, o ChatBot consulta uma base de dados, fornecendo, em seguida, a resposta mais próxima da pergunta realizada pelo usuário, de modo parecido com o comportamento humano.
Além disso, ela pode ser utilizada para detectar anomalias, para calcular probabilidades de sucessos, para reconhecimento de padrões, para reconhecimento de imagens, entre outras funções.
Pessoal, finalizamos o nosso resumo sobre os Conceitos Iniciais de Big Data, para o concurso da Receita Federal. Esperamos que tenham gostado.
Caso queira se preparar para chegar competitivo nesta prova, invista nos cursos para a Receita Federal do Estratégia Concursos.
Lá você encontrará aulas completas e detalhadas, com os melhores professores do mercado, de todos os tópicos exigidos no edital deste concurso.
Conheça também o Sistema de Questões do Estratégia. Afinal, a única maneira de consolidar o conteúdo de maneira satisfatória é através da resolução de questões. Lá você encontrará milhares de questões das disciplinas que possivelmente serão cobradas no seu certame.
Não deixem de conferir.
Bons estudos a todos e até a próxima!
Prepare-se com o melhor material e com quem mais aprova em Concursos Públicos em todo o país!
Após divulgação dos resultados finais, o concurso da Administração Estadual do Meio Ambiente (ADEMA SE)…
Foi publicado um comunicado de cancelamento da prova do concurso público da Prefeitura de Anitápolis,…
O concurso público da Prefeitura de Anitápolis, cidade de Santa Catarina, comunicou que a prova prevista…
A banca organizadora, IDESG, informou a suspensão temporária do concurso público da Prefeitura de Duas…
Provas serão aplicadas no dia 8 de dezembro! Localizada a apenas 78 km da capital…
Com provas até então previstas para o dia 24 de novembro, o cronograma do concurso…