Az Apache Hive először alakult, mint a Apache Hadoop alprojekt szolgáló Hadoop adminisztrátorok számára egy könnyen használható, szakszerű lekérdezés nyelv az adatokat.
Emiatt a Kaptár fejlesztették a kezdetektől, hogy működjön együtt hatalmas mennyiségű információt minden egyes lekérdezés és tökéletesen alkalmas a nagy méretű adatbázisok és üzleti környezetet.
Eszközök, melyek a könnyen betöltése, kitermelésére és átalakítva az adatokat, míg az egyéni adatszerkezetek lehet rákényszeríteni széles adathalmazt formátumokat.
Mivel ez egy Hadoop kapcsolatos projekt a HDFS és HBase projektek is automatikusan támogatott.
HiveQL talán a legjobb része a projektnek, amely egyszerű, innovatív és hatékony lekérdező nyelv, míg a szintén képes kezelni térképészek és kicsinyítő olyan helyzetekben, amikor a natív SQL szintaxis nem tud a kívánt adatokat.
Mi az új ebben a kiadásban:
- Támogatás korrelálatlanok subqueries a WHERE
- Add NULL definíció szerint evezni formátum specifikációja
- Ccreate / drop adatbázist kell feltöltenie bemenet / kimenet, és ellenőrizze a konkurencia és a felhasználó engedélye
- a support terjedelme és precizitás Hive tizedes típusú
- Legyen Tez
- Egy felrobban funkció, amely magában foglalja az elem pozícióját a tömb
- Add char adattípus
- gyűjteni UDF, és értékelő újrafelhasználható
- Növelje rekordot író és az ORC-olvasó / író interfészek statisztikákat
- Végre statisztikák nyújtó ORC író és olvasó interfészek
- Annotate kaptár üzemeltető fa statisztikái metastore
- Adja csíkkal szinten oszlop statisztikák ORC
- Allekérdezés támogatás: ne engedélyezze a fészkelő subqueries
- Allekérdezés támogatás: lehetővé allekérdezés kifejezések, amelyek záradék
- Allekérdezés támogatás: több vizsgálat
- Native Parketta Támogatás Hive
- Hive képesnek kell lennie arra, hogy kihagyja fejléc és a lábléc sorok olvasása közben adatfájlt egy táblázat
- Add DATE, a timestamp, decimális, KAR, VARCHAR típus támogatja a HCat
- A térkép-csatlakozzanak csipetnyi cache köztes eredmény
- Add UDF kiszámításához közötti távolság földrajzi koordinátáit
Mi az új verzióban 1.2.0:
- Támogatás korrelálatlanok subqueries a WHERE
- Add NULL definíció szerint evezni formátum specifikációja
- Ccreate / drop adatbázist kell feltöltenie bemenet / kimenet, és ellenőrizze a konkurencia és a felhasználó engedélye
- a support terjedelme és precizitás Hive tizedes típusú
- Legyen Tez
- Egy felrobban funkció, amely magában foglalja az elem pozícióját a tömb
- Add char adattípus
- gyűjteni UDF, és értékelő újrafelhasználható
- Növelje rekordot író és az ORC-olvasó / író interfészek statisztikákat
- Végre statisztikák nyújtó ORC író és olvasó interfészek
- Annotate kaptár üzemeltető fa statisztikái metastore
- Adja csíkkal szinten oszlop statisztikák ORC
- Allekérdezés támogatás: ne engedélyezze a fészkelő subqueries
- Allekérdezés támogatás: lehetővé allekérdezés kifejezések, amelyek záradék
- Allekérdezés támogatás: több vizsgálat
- Native Parketta Támogatás Hive
- Hive képesnek kell lennie arra, hogy kihagyja fejléc és a lábléc sorok olvasása közben adatfájlt egy táblázat
- Add DATE, a timestamp, decimális, KAR, VARCHAR típus támogatja a HCat
- A térkép-csatlakozzanak csipetnyi cache köztes eredmény
- Add UDF kiszámításához közötti távolság földrajzi koordinátáit
Mi az új 1.1.0 verzió:
- Támogatás korrelálatlanok subqueries a WHERE
- Add NULL definíció szerint evezni formátum specifikációja
- Ccreate / drop adatbázist kell feltöltenie bemenet / kimenet, és ellenőrizze a konkurencia és a felhasználó engedélye
- a support terjedelme és precizitás Hive tizedes típusú
- Legyen Tez
- Egy felrobban funkció, amely magában foglalja az elem pozícióját a tömb
- Add char adattípus
- gyűjteni UDF, és értékelő újrafelhasználható
- Növelje rekordot író és az ORC-olvasó / író interfészek statisztikákat
- Végre statisztikák nyújtó ORC író és olvasó interfészek
- Annotate kaptár üzemeltető fa statisztikái metastore
- Adja csíkkal szinten oszlop statisztikák ORC
- Allekérdezés támogatás: ne engedélyezze a fészkelő subqueries
- Allekérdezés támogatás: lehetővé allekérdezés kifejezések, amelyek záradék
- Allekérdezés támogatás: több vizsgálat
- Native Parketta Támogatás Hive
- Hive képesnek kell lennie arra, hogy kihagyja fejléc és a lábléc sorok olvasása közben adatfájlt egy táblázat
- Add DATE, a timestamp, decimális, KAR, VARCHAR típus támogatja a HCat
- A térkép-csatlakozzanak csipetnyi cache köztes eredmény
- Add UDF kiszámításához közötti távolság földrajzi koordinátáit
Mi az új 1.0.0:
- Támogatás korrelálatlanok subqueries a WHERE
- Add NULL definíció szerint evezni formátum specifikációja
- Ccreate / drop adatbázist kell feltöltenie bemenet / kimenet, és ellenőrizze a konkurencia és a felhasználó engedélye
- a support terjedelme és precizitás Hive tizedes típusú
- Legyen Tez
- Egy felrobban funkció, amely magában foglalja az elem pozícióját a tömb
- Add char adattípus
- gyűjteni UDF, és értékelő újrafelhasználható
- Növelje rekordot író és az ORC-olvasó / író interfészek statisztikákat
- Végre statisztikák nyújtó ORC író és olvasó interfészek
- Annotate kaptár üzemeltető fa statisztikái metastore
- Adja csíkkal szinten oszlop statisztikák ORC
- Allekérdezés támogatás: ne engedélyezze a fészkelő subqueries
- Allekérdezés támogatás: lehetővé allekérdezés kifejezések, amelyek záradék
- Allekérdezés támogatás: több vizsgálat
- Native Parketta Támogatás Hive
- Hive képesnek kell lennie arra, hogy kihagyja fejléc és a lábléc sorok olvasása közben adatfájlt egy táblázat
- Add DATE, a timestamp, decimális, KAR, VARCHAR típus támogatja a HCat
- A térkép-csatlakozzanak csipetnyi cache köztes eredmény
- Add UDF kiszámításához közötti távolság földrajzi koordinátáit
Mi az új verzióban 0.8.1:
- eszközök lehetővé teszik az adatok egyszerű kivonat / átalakítani / terhelés (ETL).
- Egy olyan mechanizmus bevezetéséről szerkezete a különböző adatok formátumokat.
- Hozzáférés a tárolt fájlok akár közvetlenül az Apache HDFS (TM) vagy más adattároló rendszerek, mint például Apache HBase (TM).
- lekérdezés végrehajtása révén MapReduce.
Mi az új verzióban 0.8.0:
- eszközök lehetővé teszik az adatok egyszerű kivonat / átalakítani / terhelés (ETL)
- Egy olyan mechanizmus bevezetéséről szerkezete a különböző adatok formátumok
- Hozzáférés a tárolt fájlok akár közvetlenül az Apache HDFS (TM) vagy más adattároló rendszerek, mint például Apache HBase (TM)
- Kérdés végrehajtás útján MapReduce
Mi az új verzióban 0.7.1:
- Hibák:
- Kivétel ablakokra, amikor a JDBC illesztőprogram használatával. & quot; IOException: A rendszer nem találja a megadott elérési útvonalat & quot;.
- séma létrehozása a szkriptek teljes, mivel nem hagyják ki táblákat, amelyek kifejezetten a DataNucleus.
- Fejlesztések:
- Javítani különböző hibaüzenetek.
- Visszatérés a helyes Major / Minor verziószámok JDBC illesztőprogram Hive.
- Adja hozzá a HivePreparedStatement végrehajtása alapján a jelenlegi HIVE támogatott adattípus.
- Feladatok:
- Hive a Maven.
- Adja Metastore aktualizáló szkriptek és az alapértelmezett sémákat PostgreSQL.
Mi az új verzióban 0.7.0:
- Új funkció:
- Engedélyezési infrastruktúra Hive
- Végre indexelés Hive
- Add tükrözik () UDF reflektív könyörgése Java módszerek
- Hive TypeInfo / ObjektumLekérdező, hogy támogatja az Európai Unió (amellett struct, tömb, és a térképet)
- Végre GenericUDF str_to_map
- Patch támogatni HAVING a Hive
- Kövesse az illesztéseknél, amely az átalakítás alatt feltérképezni csatlakozzon automatikusan
- Hívás gyakorisága és időtartama mérőszámokat HiveMetaStore keresztül JMX
- Karbantartás lastAccessTime a metastore
- Javulás:
- Adja lehetőség exportálni a fejléc
- Támogatás külön kiválasztási két vagy több oszlop
- A bővített asztal / partíció kimenet rejtélyes
- Nem talál néhány JDBC funkciók, mint a getTables, getColumns és HiveResultSet.get * módszereken alapuló oszlop nevét.
- Ha megérinti rönk utódfolyamatok
- Támogatás szűrő pushdown ellen nem őshonos asztalok
- Cserélje függőségek HBase elavult API
- Add queryid míg zár
- Frissítés transident_lastDdlTime csak akkor, ha nincs megadva
- Add tovább hibakeresési információkat kaptár zár
- HiveInputFormat vagy CombineHiveInputFormat mindig szinkronizálásra blokk konfigurációs állomány kétszer
- mutatja az időt a helyi feladatot vesz
- Hozzon létre egy új zookeeper például amikor újra próbálkozna zár, és tovább debug
- Add a lehetőség futtatni a feladatot, hogy ellenőrizze térkép-csatlakozzanak lehetőség nem helyi üzemmódban
- Több hibakeresési zárolásával
- Add lehetőséget a dinamikus partíció betétek dobni egy hiba, ha 0 partíciók létrehozásakor
- Hibák:
- & quot; LOAD DATA HELYI INPATH & quot; meghiúsul, ha a tábla már tartalmaz fájlt az azonos nevű
- NULL nem kezeli helyesen csatlakozzon
- HiveInputFormat.getInputFormatFromCache & quot; fecskék & quot; ok kivételével dobás közben IOExcpetion
- Add előrelépést csatlakozhatnak, és GroupBy
- Egyszerű UDAFs több mint 1 paraméter balesetében üres sort lekérdezés
- UDF mező () nem működik
- Dinamikus partíció betétek üresen maradt fájlokat, tisztítatlan a Hadoop 0,17 helyi üzemmódban
- Skip számláló frissítést, ha RunningJob.getCounters () függvény null
Mi az új verzióban 0.5.0:
- Legyen felhasználó adja serde az egyéni szkriptek.
- Add UDF unhex.
- Vegye ki lzocodec import FileSinkOperator.
- Driver NullPointerException hívás esetén getResults nélkül fordítást.
- fejlõdésnek konfigurációs állomány és ColumnarSerDe a Kaptár.
Hozzászólás nem található