Stora data
Uttrycket "big data" används ofta i företaget inställningar för att beskriva stora mängder datum. Det hänvisar inte till en viss mängd data utan beskriver snarare en dataset som inte kan lagras eller bearbetas med traditionell databas programvara.
Exempel på stora data inkluderar Google sökindex, databasen för Facebook användarprofiler och Amazon.coms produktlista. Dessa datainsamlingar (eller "datamängder") är så stora att informationen inte kan lagras i en typisk databas eller till och med en enda dator. Istället måste data lagras och bearbetas med en mycket skalbar databashanteringssystem. Big data distribueras ofta över flera lagringsenheter, ibland på flera olika platser.
Många traditionella databashanteringssystem har gränser för hur mycket data de kan lagra. En Access 2010-databas kan till exempel bara innehålla två gigabyte data, vilket gör det omöjligt att lagra flera petabyte or exabyte av data. Även om ett DBMS kan lagra stora mängder data kan det fungera ineffektivt om det är för många Tabellerna or register skapas, vilket kan leda till långsam prestanda. Big data-lösningar löser dessa problem genom att tillhandahålla mycket responsiva och skalbara lagringssystem.
Det finns flera olika typer av stora data programvara lösningar, inklusive datalagringsplattformar och dataanalysprogram. Några av de vanligaste programvaruprodukterna för stora data inkluderar Apache Hadoop, IBMs Big Data Platform, Oracle NoSQL Databas, Microsoft HDInsight och EMC Pivotal One.