Nach vielen Jahren Abstinenz fand die ApacheCon den Weg zurück nach Europa. Die Konferenz fand vom 5.-8. November in Sinsheim in der Rhein-Neckar-Arena, dem Fussball-Stadion des TSG Hoffenheim 1899, statt. Die Lokation und die Verpflegung für die Teilnehmer waren klasse, das Wlan leider nicht. Doch die äusserst interessanten Talks entschädigten für dieses Dilemma.

Insgesamt 13 Tracks, wie z.B. Cloud, Lucene, SOLR & Friends, Big Data und weitere, waren für die ca. 500 Teilnehmer an 4 Tagen geboten. Viele Apache Core-Commiter sprachen über die Neuentwicklungen in der letzten Zeit.

Die Tracks zu Lucene, SOLR & Friends sowie Big Data waren bei so gut wie jedem Talk voll belegt. Dies bestätigt auch meine Einschätzung von der rasanten Entwicklung in diesen hochinteressanten Bereichen.

Lucene 4 wurde vor kurzem veröffentlicht, somit waren die Änderungen und die neuen Features natürlich ein grosses Thema. Besonders zu erwähnen sind die extremen Performance-Steigerungen beim Indizieren, die Automaton Queries, die neue Scoring Architektur und die grundlegenden Änderungen an der API ohne Rücksicht auf Abwärtskompatibilität. Solr 4 hat ebenso viele neue Entwicklungen vorzuweisen, wie z.B. die SolrCloud für die vereinfachte Skalierung in verteilten Systemen oder das neue Admin UI. Yonik Seeley’s Aussage war: “Vergesst alles, was ihr über Solr wisst und seht es als einen NoSQL-Store, welcher auch für die Suche benutzt werden kann”.
Sehr interessant war auch zu beobachten, wie sich die zwei Lager vom Apache Solr und ElasticSearch in den Talks gegenseitig diffamierten. Die Nutzer des ElasticSearch sehen dieses Produkt als die Zukunft der Search Engines, wobei die Geldspritze letzte Woche dabei sicherlich helfen wird. Solr schliesst mit der Entwicklung vom SolrCloud auf und legt – durch die in ElasticSearch nicht vorhandenen Features – noch eine Schippe drauf. Es ist aber wie Rafał Kuć in seiner Präsentation sagte: “Der Gewinner ist immer der Nutzer. Er muss sich nur für ein Produkt entscheiden.”

Im Big Data Track waren die dominierenden Themen Hadoop, HBase und Cassandra. Daneben gab es auch interessante Vorträge in den verwandten Bereichen Cloud und NoSQL. Um die NameNode als den Single Point of Failure zu eliminieren, wird es bei den Hadoop Versionen 2.x einen Live NameNode Failover geben. Die Talks über Cassandra erinnerten mich wieder daran, das Amazon’s Dynamo-Paper zu lesen. Cassandra, aber auch Riak und weitere, wurden bei ihrer Entstehung konzeptionell vom Dynamo-Paper inspiriert, unterscheiden sich aber im Datenmodell.
Im Big Data Track hielt auch mein Kollege Christian Gügi einen Talk mit dem Titel “Operating HBase – Things you need to know“. Dabei zeigte er in einer Live-Demo, wie man mit Hannibal, einem von Sentric entwickelten Open Source Tool, die Grösse sowie die Verteilung der Regionen in HBase überwachen kann. Schaut euch Hannibal an, installiert es, spielt damit herum und teilt uns mit, was ihr davon haltet!

Interessierte sollten aber auch die Projekte Nutch, Hama, Tika und Stanbol (vor allem im Bezug auf Open Data) anschauen.

Fazit

Es war eine der besten Konferenzen dieses Jahr – interessante Themen, gute Vorträge, tolle Lokation und viele gute Gespräche. Ein Besuch bei der nächsten ApacheCon ist also auf jeden Fall zu empfehlen.

0 Kommentare

Einen Kommentar abschicken

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *