Marx Gómez , Jorge Carlos and Dmitriyev, Viktor and Precht, Hauke and Kruse, Felix (2016) Aufbau einer analytischen Pipeline mit Apache Hadoop und XML : Enterprise und Big Data. BI-SPEKTRUM. pp. 1-5. ISSN 1862-5789
Full text not available from this repository.Abstract
Daten werden für Unternehmen immer mehr zu einem wichtigen Rohstoff, um ihre Prozesse und Wettbewerbsvorteile zu verbessern. Bisher werden allerdings hauptsächlich strukturierte Daten analysiert. Jedoch werden laut einer Studie des IDC in den nächsten Jahren lediglich 10 Prozent strukturierte Daten erzeugt – den verbleibenden größeren Teil machen semi- und unstrukturierte Daten wie XML-, JSON-, Bild- und Textdateien aus Int12. Häufig liegen diese Daten bereits heute in großen Mengen vor. Diese meist ungenutzten semi- und unstrukturierten Datenmassen bieten Unternehmen enorme Potenziale, um mittels Advanced und Predictive Analytics Wissen und Erkenntnisse zu generieren. Um jedoch diese Daten für Advanced und Predictive Analytics überhaupt nutzbar zu machen, sind neue Technologien wie das Hadoop Ecosystem und NoSQL-Datenbanken entstanden. Dabei kann für mittelständische Unternehmen das Hadoop Ecosystem eine Alternative zu proprietären Softwarelösungen sein, da es als Open-Source-Software gut verfügbar und durch eine entsprechende Community unterlegt ist.
Item Type: | Article |
---|---|
Subjects: | Generalities, computers, information > Computer science, internet |
Date Deposited: | 30 Mar 2017 09:50 |
Last Modified: | 30 Mar 2017 09:50 |
URI: | https://oops.uni-oldenburg.de/id/eprint/3153 |
URN: | urn:nbn:de:gbv:715-oops-32349 |
DOI: | |
Nutzungslizenz: |
Actions (login required)
View Item |