5 provocări în analizele de date mari pentru care trebuie să aveți grijă

Autor: Roger Morrison
Data Creației: 18 Septembrie 2021
Data Actualizării: 11 Mai 2024
Anonim
5 provocări în analizele de date mari pentru care trebuie să aveți grijă - Tehnologie
5 provocări în analizele de date mari pentru care trebuie să aveți grijă - Tehnologie

Conţinut



Sursa: Nils Ackermann / Dreamstime.com

La pachet:

Datele mari pot fi o resursă neprețuită pentru întreprinderi, dar mulți nu iau în considerare provocările implicate în implementarea și analizarea acesteia.

Deși colectarea și analiza datelor au fost în jur de zeci de ani, în ultimii ani, analizele de date mari au luat lumea afacerilor prin furtună. Cu toate acestea, vine cu anumite limitări. În acest articol, vom vorbi despre provocările cu care se vor confrunta companiile de analiză de date mari în viitorul apropiat.

După cum sugerează și numele, datele mari sunt enorme în ceea ce privește volumul și complexitatea afacerii. Este disponibil în diverse formate, cum ar fi date structurate, date semi-structurate și date nestructurate și dintr-o gamă largă de surse de date. Analiza datelor mari este utilă pentru o perspectivă rapidă și acționabilă. Întrucât analiza datelor mari se bazează pe diverși parametri și dimensiuni, aceasta vine cu anumite provocări, inclusiv:


  • Manipularea unui volum mare de date într-un timp limitat
  • Curățarea datelor și formatarea acestora pentru a obține rezultatul dorit
  • Reprezentarea datelor într-un format vizual
  • Crearea aplicației scalabilă
  • Selectarea tehnologiei / instrumentelor adecvate pentru analiză

Manipularea unui volum enorm de date în mai puțin timp

Manevrarea unui volum mare de date într-un timp limitat reprezintă o provocare semnificativă, având în vedere faptul că peste 2,5 octeți de cvintilioane de date sunt create zilnic. În plus, nu putem numi chiar toate sursele din care sunt create datele - sursele de date pot fi senzori, social media, date bazate pe tranzacții, date celulare sau orice alte tipuri de surse.

Pentru a lua în mod eficient deciziile de afaceri critice, trebuie să avem o infrastructură IT puternică, care să fie capabilă să citească mai rapid datele și să ofere informații în timp real. Deci, vedem că provocarea constă în modul de extragere a informațiilor dintr-un volum enorm într-un mod eficient din punct de vedere al costurilor și al timpului.


Dacă vorbim despre manipularea datelor complexe, primul instrument de date mari care îmi vine în minte este Apache Hadoop. În Hadoop avem MapReduce, care are capacitatea de a împărți aplicația în fragmente mai mici. Fiecare fragment este apoi executat pe un singur nod în interiorul unui cluster. Hadoop are multe caracteristici utile și este utilizat pe scară largă, dar nu putem ignora faptul că organizațiile au nevoie de o soluție concretă care ar trebui să poată gestiona o serie de date atât structurate cât și nestructurate, permițând în același timp perioade de oprire minime. Pe lângă acestea, Hadoop are câteva provocări suplimentare, printre care:

  • Provocări legate de gestionarea datelor
  • Provocări legate de planificarea locurilor de muncă
  • Provocări legate de schimbul de resurse
  • Provocări legate de gestionarea clusterului

IBM InfoSphere BigInsights, care este construit pe baza lui Hadoop, are capacitatea de a satisface aceste cerințe critice de afaceri. În același timp, are și capacitatea de a menține compatibilitatea.

Curățarea și formatarea datelor pentru a obține rezultate semnificative

Curățarea datelor este o parte integrantă a analizei datelor. De fapt, este mai important să curățați datele decât să efectuați orice analiză statistică asupra acesteia. În timp ce facem o analiză statistică a datelor, datele trebuie să parcurgă următorii cinci pași:


Fără bug-uri, fără stres - Ghidul dvs. pas cu pas pentru crearea de programe care schimbă viața fără a vă distruge viața

Nu îți poți îmbunătăți abilitățile de programare atunci când nimeni nu îi pasă de calitatea software-ului.

Figura 1: Etapele de curățare și analiză a datelor

În figura de mai sus putem vedea o imagine de ansamblu a etapelor de analiză a datelor. Fiecare dintre casete reprezintă o etapă prin care trec datele. Primii trei pași se încadrează în mecanismul de curățare a datelor, în timp ce ultimii doi fac parte din analiza datelor.

  • Date brute - Acestea sunt datele pe măsură ce intră. În această stare pot exista trei probleme potențiale:
    • Este posibil ca datele să nu aibă anteturile corespunzătoare.
    • Datele pot avea tipuri de date incorecte.
    • Datele pot conține codări de caractere necunoscute sau nedorite.
  • Date corecte din punct de vedere tehnic - odată ce datele brute sunt modificate pentru a scăpa de discrepanțele enumerate mai sus, se spune că sunt „date tehnice corecte”.
  • Date consistente - În această etapă, datele sunt gata să fie expuse la orice fel de analiză statistică și pot fi utilizate ca punct de plecare pentru analiză.
  • Rezultate și rezultate statistice - După obținerea de rezultate statistice, acestea pot fi stocate pentru reutilizare. Aceste rezultate pot fi, de asemenea, formatate astfel încât să poată fi utilizate pentru publicarea diverselor tipuri de rapoarte.

Reprezentarea vizuală a datelor

Reprezentarea datelor într-un format bine structurat, care poate fi citit și inteligibil pentru audiență este de o importanță vitală. Manevrarea datelor nestructurate și apoi reprezentarea lor într-un format vizual poate fi o sarcină dificilă pe care organizațiile care implementează date mari se vor confrunta în viitorul apropiat. Pentru a răspunde acestei nevoi, diferite tipuri de grafice sau tabele pot fi utilizate pentru a reprezenta datele.

Aplicația trebuie să fie scalabilă

Având în vedere volumul din ce în ce mai mare de date zi de zi, cea mai mare provocare pe care o vor confrunta organizațiile este factorul de scalabilitate. Pentru a avea o aplicație scalabilă, preconizăm următoarele provocări în timp ce colectăm datele:

  • Serviciile de date sunt implementate pe mai multe stive tehnologice:
    • Apache / PHP pentru partea frontală
    • Utilizarea limbajelor de programare (cum ar fi Java sau Scala) pentru a interacționa cu baza de date sau front end

Deoarece există mai multe straturi (constând din diferite stive tehnologice) între baza de date și partea frontală, traversarea datelor necesită timp. Așadar, atunci când aplicația încearcă să mărească, performanța scade. Ca soluție, arhitectura și stiva tehnologică ar trebui să fie proiectate corespunzător pentru a evita problemele de performanță și pentru a crește scalabilitatea.

Serviciile de date privind producția ar trebui să aibă o latență minimă. Când o aplicație crește, timpul de răspuns la fiecare solicitare este una dintre problemele majore. Pe măsură ce volumul de date crește, problema latenței trebuie gestionată în mod corespunzător prin implementarea celor mai bune practici în zona serviciului de date.

Selectarea instrumentelor sau tehnologiei adecvate pentru analiza datelor

Indiferent de abordarea pe care o adoptăm pentru colectarea și stocarea datelor, dacă nu avem un instrument adecvat pentru analiză, nu este de folos să avem aceste lucruri la locul lor. Trebuie să avem grijă în timp ce selectăm instrumente pentru analiza datelor. După ce finalizăm instrumentele, nu putem trece cu ușurință la alta. Prin urmare, în timp ce selectăm instrumente pentru analiză, ar trebui să luăm în considerare următoarele:

  • Volumul datelor
  • Volumul tranzacției
  • Gestiunea datelor și aplicațiile vechi

Concluzie

Provocările menționate aici pot fi prezise cu ușurință, dar cine știe ce alte provocări neprevăzute pot fi în față? Când lucrați cu date mari, este o idee bună să anticipezi provocările și să încercați să planificați orice probleme care pot apărea.