
Jak stworzyć rozszerzalną platformę Big Data do zaawansowanej analityki? Jak ją skalować z kilku terabajtów do ponad 100 petabajtów danych, zmniejszając jednocześnie opóźnienie w dostępie do danych z ponad 24 godzin do minut. Reza Shiftehfar, lider zespołu odpowiedzialnego za platformę Hadoop w firmie Uber, podczas „Big Data Tech Warsaw Summit 2020” opowiadał o budowie oraz rozwoju niezawodnej i skalowalnej platformy Big Data. W Uber obsługuje ona petabajty danych w czasie rzeczywistym, wykorzystując technologie, takie jak: Apache Hadoop, Apache Hive, Apache Kafka, Apache Spark i Presto.
Musisz się zalogować aby dodać komentarz.