anordnung_makler-uhren.jpg

NEWSLETTER Q1/2020

LIEBE LESERINNEN UND LESER,

vor zwanzig Jahren, vor dem Jahreswechsel 1999/2000, erfasste eine regelrechte Panik die Wirtschaft – die Millennium-Panik. Würden die Computer von Banken, Kraftwerken oder der Polizei den Datumswechsel von 1999 auf 2000 überstehen? Könnte ein weltweiter Blackout der Computernetze die Folge sein, der unsere Städte ins Chaos stürzt? Wie wir alle im Nachhinein erfahren haben, gab es keinerlei Grund zur Sorge. Nur Monate später jedoch platzte – für viele völlig unvorhergesehen – die sogenannte Dotcom-Blase der New Economy mit zum Teil gravierenden wirtschaftlichen Folgen.

Inzwischen tragen diese Vorfälle den Stempel „historisches Ereignis“, und seinerzeit verwendete Technik ist aus heutiger Sicht geradezu archaisch. Aber sind wir nicht nach wie vor anfällig, uns in gewisse Aspekte der Digitalisierung geradezu festzubeißen? Und dafür andere, womöglich wichtigere Faktoren zu vernachlässigen?

Um das herauszufinden, dürfen wir es uns keinesfalls zu leicht machen und ausschließlich visionär unterwegs sein. Digitalisierung ist oberstes Gebot in allen Branchen, und die damit verbundenen Änderungen unseres Day-to-day-Business werden so gravierend sein wie nie in der Geschichte zuvor. Big und Smart Data sorgen bereits heutzutage in vielen Märkten für eine größere Transparenz, als es klassische Research-Methoden jemals vermochten – auch wenn eine diesbezügliche Wahrnehmung auf breiter Basis noch nicht zu sehen ist. Solche Potenziale gilt es zu nutzen und in der Praxis zu realisieren, während wir von der Abschaffung des Grundbuchs durch die Blockchain reden.

Der größtmögliche Fehler wäre jedoch, bei allen Fragen im Zusammenhang mit der Digitalisierung den Faktor Mensch außer Acht zu lassen, wie auch Dr. Thomas Herr, EMEA Head of Digital Innovation von CBRE, im Interview erläutert. Denn, so sein Fazit, kein noch so cleveres Programm wird sich jemals durchsetzen können, wenn die Menschen nicht damit umgehen wollen. Es sind spannende Zeiten, in denen wir uns befinden, noch spannender ist, dass wir die Möglichkeit haben, sie aktiv mitzugestalten.

Ich wünsche Ihnen allen ein erfolgreiches Geschäftsjahr 2020

Ihr Herwig Teufelsdorfer

 

LEITARTIKEL

Ende September sorgte der „UBS Global Real Estate Bubble Index 2019“ in der deutschen Fachöffentlichkeit für Unruhe. Im direkten Vergleich der Immobilienmärkte belegte München weltweit den ersten Platz, noch vor den für ihre Überhitzungstendenzen bekannten Metropolen Toronto und Hongkong (1). Ebenfalls in den „Top 5“ der überhitzten Märkte vertreten: Frankfurt am Main.

Ein maßgeblicher Faktor dafür ist die (Re-)urbanisierung und der damit verbundene Nachfrageüberhang nach Wohn- und Gewerbeflächen. Städte wie München, Frankfurt, Berlin und auch Stuttgart wachsen schneller, als entsprechende Neubauten umgesetzt werden können. Zudem galt Deutschland lange Zeit auch aufgrund der rechtlichen Bedingungen als sicherer Hafen für institutionelle Investorengelder. Im Wohnsegment hat dies dafür gesorgt, dass sich die Kaufpreisniveaus immer stärker von den Mietpreisen abkoppeln, was einen der wichtigsten Indikatoren für eine Marktüberhitzung darstellt. Für Frankfurt wurde beispielsweise ermittelt, dass private Wohnungskäufer vor diesem Hintergrund immer kleinere Wohneinheiten zu immer größeren Quadratmeterpreisen kaufen (2).

https://www.ubs.com/global/de/ubs-news/r-news-display-ndp/de-20190930-global-real-estate-bubble-index.html
https://www.fr.de/frankfurt/wohnen-in-frankfurt-sti903943/durchschnittspreise-wohneigentum-frankfurt-sinken-quadratmeterpreis-steigt-12235880.html

NICHT NUR EINE FRAGE DES KIEZES

Bei all diesen Analysen und Erhebungen ergibt sich jedoch die Unschärfe, dass die Ergebnisse auf aggregierter Stadtebene dargestellt werden. In der Realität erleben wir jedoch, dass sich diese Überhitzungstendenzen oftmals zunächst auf einzelne Lagen und Stadtviertel beschränken. In speziellen Mikrolagen können hingegen nach wie vor deutliche Unterbewertungspotenziale existieren. Um diese zu identifizieren ist oftmals selbst eine Betrachtung auf Kiezebene zu grobkörnig, vielmehr müssen dafür einzelne Straßenzüge und Blöcke individuell untersucht werden.

Eine von uns auf Smart-Data-Basis durchgeführte, sehr kleinräumige Analyse der Wohnimmobilienpreise innerhalb der sogenannten A-Städte zeigt dabei Erstaunliches: In Berliner Bezirk Friedrichshain-Kreuzberg sind nach wie vor ganze 43 Prozent aller 200 mal 200 Meter umfassenden Datenkacheln potenziell zu mehr als fünf Prozent unterbewertet (ohne Berücksichtigung des geplanten Mietendeckels und möglicher, nicht beobachteter Einschränkungen oder Bodenbelastungen durch Schadstoffe). Natürlich muss jede tendenziell unterbewertete Lage im Detail geprüft werden. Trotz der teils beachtlichen Preiszuwächse in der Hauptstadt weist beinahe jede fünfte Datenkachel in den anderen Berliner Bezirken noch entsprechende Unterbewertungstendenzen auf. Die Einteilung der Datenkacheln, auf deren Basis wir vorgegangen sind, entspricht dabei der für die Ermittlung des Hedging-Potenzials.

 

SELBST IN FRANKFURT GIBT ES UNTERBEWERTETE LAGEN

Die deutlichsten Vorteile der kleinräumigen Analyse zeigen sich in der europäischen Finanzhauptstadt: Obwohl diese, wie eingangs erwähnt, auf Stadtebene als stark blasengefährdet gilt – so jedenfalls die Einschätzung der UBS –, konnten wir feststellen, dass in der Altstadt Unterbewertungspotenziale von bis zu 24,3 Prozent im Vergleich zu dem von uns auf Machine-Learning-Basis ermittelten möglichen Preisniveaus existieren. Insgesamt ist in der Frankfurter Altstadt etwa jede siebte Kachel zu mehr als fünf Prozent potenziell unterbewertet. Zum Vergleich: In allen anderen Bezirken zusammengenommen liegt der Anteil an potenziell entsprechend unterbewerteten Kacheln gerade einmal bei 0,03 Prozent.

Diese Ergebnisse zeigen eindeutig, dass trotz der allgemeinen Überhitzungstendenzen ein Cherry-Picking für Wohnimmobilien an ausgewählten Frankfurter Investmentstandorten durchaus möglich ist. Gleiches gilt für die dritte von uns analysierte Stadt Stuttgart – trotz ihrer Kessellage, die die Möglichkeit für Neubauprojekte allein schon rein geografisch einschränkt und somit den Nachfrageüberhang verstärkt. Vor allem der Bezirk Stammheim bietet dort nach wie vor Unterbewertungspotenziale und die Möglichkeit für Investoren, zu guten Konditionen anzukaufen.

UNTERBEWERTUNG UND PREISWACHSTUM – DIE EFFEKTE

Aber wie genau kann sich ein solches Investment an einem Standort entwickeln, für den ein bestimmtes Unterbewertungspotenzial existiert? Hierzu haben wir ebenfalls statistisch signifikante, gewichtete Wachstumseffekte für die deutschen Top-7-Städte abgeleitet: Eine Kachel, die zu mehr als fünf Prozent potenziell unterbewertet ist – also ab dem von uns angesetzten Grenzwert –, erfährt durchschnittlich innerhalb von zwei Jahren ein um rund 8,1 Prozentpunkte höheres Preiswachstum als eine nicht unterbewertete Kachel. Dieser Effekt wächst über die Zeit an, sodass der Unterschied nach vier Jahren bei etwa 17,5 Prozentpunkten liegt.

Auf demselben Weg wie die Unterbewertungsanalyse lassen sich die einzelnen Datenkacheln auch auf Überhitzungstendenzen – und demzufolge auf potenzielle Wachstumsabschläge – analysieren. Grundsätzlich zeigt sich jedoch, dass sich die einzelnen Potenziale und Risiken je nach Mikrolage bei grundsätzlich immer angespannteren Märkten kontinuierlich stärker ausdifferenzieren. Um die Investmentsicherheit vor diesem Hintergrund zu erhöhen, sind also von Mal zu Mal feingliedrigere Analysen auf Basis von regelmäßiger aktualisierten Datensätzen nötig.

 

EXPERTENINTERVIEW

Interview mit Dr. Thomas Herr, EMEA Head of Digital Innovation bei CBRE

Keine noch so ausgefeilte IT-Anwendung kann sich durchsetzen, wenn die Menschen nicht mit ihr arbeiten wollen. Die menschliche Komponente ist daher maßgeblich für den Erfolg oder Misserfolg bei der digitalen Transformation ganzer Unternehmen, wie Dr. Thomas Herr, EMEA Head of Digital Innovation im Interview erklärt.

Herr Dr. Herr, welche Rolle hat der einzelne Mitarbeiter bei der digitalen Transformation eines Immobilienunternehmens?

Jegliche Form des digitalen Wandels ist nur dann möglich, wenn sie im Unternehmen fest verankert ist. Das bedeutet, dass der Vorteil einer Anwendung für alle ersichtlich sein muss. Was zunächst einfach klingt, ist tatsächlich ein langwieriger Prozess. Zunächst benötigt man entsprechend qualifiziertes Personal, das den Wandel aktiv vorantreibt. 

In größere Immobilienunternehmen gehören heute Datenspezialisten oder Softwareentwickler, von denen vor 5 Jahren innerhalb der Branche nur wenige je etwas gehört hatten. Zudem kann ein Unternehmen nicht einfach „von oben herab“ digitalisiert werden, indem die Führungsriege die Einführung eines Programms bis zum Tag X beschließt. Digitalisierung heißt vor allem Change Management: Die Mitarbeiter müssen Lust darauf haben, sich die nötigen Digitalkompetenzen für die entsprechende Anwendung anzueignen.  Dafür ist ein ständiger Dialog nötig: Oft werden neue Anwendungen zunächst in Early-Adopter-Groups getestet.

Diese digital-affinen Mitarbeiter wiederum sollten die Möglichkeit haben, umfassend Feedback und auch Kritik zu äußern, um die Anwendung bereits im Vorfeld so effizient und auch benutzerfreundlich wie möglich zu machen. Denn wenn es gelingt, die Early Adopter zu begeistern, zieht auch die restliche Belegschaft nach und nach mit. Umgekehrt jedoch wird sich auch das ausgefeilteste Programm nicht durchsetzen, wenn die Mitarbeiter es nicht benutzen wollen oder können.

Wird dies von der Branche denn auch tatsächlich gelebt?

Zugegeben: Lange taten sich Immobilienunternehmen in dieser Hinsicht schwer. Problematisch war ein fehlender Fokus auf Digitalisierungsthemen, vor allem da auch die Verantwortlichkeit für Digitale Transformation auf Führungsebene nicht eindeutig geklärt war. Das hat sich inzwischen jedoch geändert. Heute verfügen die meisten größeren Immobilienunternehmen über einen Chief Digital Officer (CDO) oder einen Head of Digital, der den digitalen Wandel maßgeblich vorantreibt. Inzwischen ist ein ehemaliger CDO sogar zum CEO eines MDAX-Immobilienunternehmens aufgestiegen. Digitalverantwortliche setzen heute nicht mehr nur um, sie entscheiden mit über die Unternehmensstrategie, über die Frage, welche Daten überhaupt erfasst, gesammelt und verarbeitet werden müssen, welche IT-Infrastruktur dafür nötig ist und mit welchen externen Technologiepartnern am besten kooperiert werden sollte. Sie müssen aber eben auch in der Lage sein, den digitalen Wandel für die Mitarbeiter transparent machen.

Wie wird sich die Zusammenarbeit zwischen Mensch und Maschine in den kommenden Jahren verändern?

Auf Basis von Künstlicher Intelligenz und Machine-Learning-Technologien werden wir zukünftig eine immer stärkere Zusammenarbeit zwischen Menschen und selbstlernenden Maschinen erleben. Die Unterstützung durch einen „Personal Digital Assistant“ wird eine völlig neue Dimension erreichen. Diese Prozesse müssen sich nahtlos in die übrigen Arbeitsabläufe einfügen. Auch hier ist die Usability ein Schlüsselfaktor. Schließlich müssen die immer komplexeren Zusammenhänge bei immer größeren Datenmengen verständlich gemacht werden. Hier ist auch der Schritt in Richtung Augmented und Mixed Reality wichtig. In einigen Jahren werden Daten nicht mehr nur am Bildschirm ablesbar, sondern vielmehr über tragbare Geräte in unsre physische Realität eingeblendet oder in immersiven Räumen mit den Sinnen erfahr- und kontrollierbar sein. Eng damit verbunden sind auch die stetigen Fortschritte in der Sprachsteuerung beziehungsweise -ausgabe: Während vor zehn Jahren die gängigen Voice-Control-Funktionen aufgrund ihrer Fehlerhaftigkeit eher für Erheiterung als für einen tatsächlichen Mehrwert sorgten, können wir heute bereits viele Geräte effizient mit unserer Stimme steuern. Für die Zukunft ist es wichtig, diese Technologie auch bei komplexen immobilienbezogenen Prozessen für die Mensch-Maschine-Kommunikation nutzbar zu machen.​

 

PRAXISBEISPIEL

Von Amar Eskef, Head of Data Science, 21st Real Estate

Seit Jahrzehnten wurden und werden Mietpreisniveaus für Büroimmobilien seitens der Immobilienbranche vor allem über Vergleichswerte, sogenannte Comparables ermittelt. Vereinfacht gesagt, werden also die vorangegangenen fünf, zehn oder auch einhundert bekannten Vertragsabschlüsse von ähnlichen Objekten im selben Viertel als Vergleichswert herangezogen. Dies funktioniert in den Metropolen mit einer regen Transaktionstätigkeit natürlich besser als in kleineren Städten, in denen pro Jahr nur wenige Vertragsabschlüsse getätigt werden.

Aber auch in den Metropolen gibt es für die Comparable-Methode ein Problem: Die Bewertung der Lage und Ausstattung der jeweiligen Immobilie erfolgt oft ungenau. Meist werden Kategorien wie „gute“ oder auch „einfache“ Lage auf Kiezebene angewandt. Tatsächlich jedoch gibt es viele Mikrolagen, bei denen sich zwei aneinandergrenzende Straßenzüge in ihrer Attraktivität deutlich voneinander unterscheiden.

Ganz vorn in den Lehrbüchern der Immobilienwirtschaft findet sich die Regel, dass sich der Wert einer Immobilie an den möglichen Mieteinnahmen bemessen lässt. Die Mieteinnahmen selbst jedoch beruhen in aller erster Linie darauf, welche Nachfrage nach der Fläche herrscht. Beziehungsweise, wie attraktiv genau dieses Büro und sein direktes Umfeld für potenzielle Mieter ist. Mit traditionellen Bewertungsmethoden können die maßgeblichen Details nicht exakt erfasst werden.

ALTERNATIVE: SMART DATA UND MACHINE LEARNING

Inzwischen wurden Methoden entwickelt, um auf Smart-Data-Basis von vorher ermittelten Standortscores in einem Raster von 200 mal 200 Metern genau diese Attraktivität zu definieren und auch mögliche Störfaktoren zu identifizieren – bevor ein menschlicher Immobilienbewerter auf den Plan tritt. Aber welche der zahlreichen möglichen Standortkriterien wirken sich auf Objektebene tatsächlich wertsteigernd oder gar wertmindernd aus? Schließlich haben Start-ups teilweise völlig unterschiedliche Flächenanforderungen als etablierte Unternehmen. Dementsprechend wirken sich bei einer von jungen Gründern oder auch Kreativagenturen geprägten Lage bestimmte Kriterien anders aus als bei einer klassischen CBD-Lage.

An genau dieser Stelle kommen selbstlernende Algorithmen und ein Machine-Learning-Ansatz ins Spiel. Eine enorme Datenmenge wird in eine künstliche Intelligenz eingepflegt – im Falle der 21st Real Estate GmbH sind das insgesamt eine Milliarde Datenpunkte, bestehend unter anderem aus Millionen Miet- und Kaufpreisen, mehr als einer Million Points of Interest, Marktindizes wie Leerstandsrisiken, aber auch dem jeweiligen Über- beziehungsweise Unterbewertungspotenzial. Dadurch und auf Basis der erhobenen Standortscores, kann die Maschine selbst einen belastbaren Mietpreis vorhersagen.

Zudem kann ein solcher Machine-Learning-Ansatz identifizieren, welche Standortkriterien sich in der Vergangenheit tatsächlich auf den Preis ausgewirkt haben. Dies ist von Stadt zu Stadt durchaus verschieden: Eine Lage am Wasser, also der entsprechende „Wasserscore“, beispielsweise wirkt sich in Hamburg anders auf die erzielbaren Mietpreise aus als in Berlin. Die Maschine lernt solche lokalen Effekte autonom dazu und sortiert gleichzeitig Scores aus, die für die Preisbildung keine Relevanz haben. Auf dieser Basis kann beispielsweise eine exakte Preisindikation für eine Büroimmobilie mit Blick aufs Wasser und eine andere exakte Indikation für ein Objekt ohne diesen Ausblick gegeben werden, obwohl sich beide in derselben Straße nur wenige hundert Meter voneinander entfernt befinden. Klassischerweise werden Mietpreisniveaus auf Comparable-Basis für einen gesamten Kiez hingegen in einer Spanne von X bis Y angegeben.

GIBT ES EINE MECHANISCHE QUALITÄTSKONTROLLE?

Wie aber funktioniert eine die Qualitätskontrolle innerhalb einer künstlichen Intelligenz? Hierfür kommt das Prinzip der Kreuzvalidierung zur Anwendung. Schließlich gibt es nicht nur unzählige mögliche Details, die die Aufenthaltsqualität beeinflussen – angefangen vom Bodenbelag über die Heizungsart bis hin zur Entfernung zum nächsten Geldautomaten, sondern auch etwa 10.000 Rechenmodelle, die die selbstlernenden Maschinen anwenden können. Daher muss immer wieder überprüft werden, welches Modell für eine spezifische Prognose verwendet werden soll. Dies geschieht folgendermaßen: Ein Teil einer bereits existierenden, dem Menschen bekannten Datenmenge wird der Maschine bewusst vorenthalten. Auf Basis der restlichen Daten werden anschließend alle infrage kommenden Modelle durchgerechnet – mit dem Ergebnis, dass diejenigen Ansätze, die die tatsächlichen Werte am besten reproduzieren, auch für entsprechende Prognosen angewendet werden und sich abschließend ein Mittelwert daraus ableiten lässt. Da die entsprechenden Algorithmen von selbst dazulernen, werden diejenigen Vorgehensweisen, die sich beim letzten Analysevorgang bewährt haben, automatisch für die nächste Rechnung wieder angewandt.

DAS ERGEBNIS: MEHR GENAUIGKEIT

Aber wie genau sind die beiden Methoden im direkten Vergleich miteinander? Während es hier für das Bürosegment noch keine Zahlen gibt, hat sich für Wohnimmobilien gezeigt: Machine-Learning-Algorithmen sind in A-Städten um durchschnittlich 25 Prozent und in B-Städten um 32 Prozent genauer. In einzelnen Städten wie Leipzig liegt der Wert sogar nochmals höher: In der größten sächsischen Stadt sind es ganze 47 Prozent. Diese Bestimmung der Genauigkeit beruht auf dem durchschnittlichen absoluten Schätzfehler der Methoden verglichen mit dem Ist-Wert (welcher bei der Prüfung und Schätzung zunächst unbekannt war).

Dabei lässt sich nachweisen, dass die Preisniveaus in Städten mit heterogenen Immobilienbeständen – also verschiedensten Immobilientypen, Baujahren, Ausstattungen und mit unterschiedlichen Lagekriterien – mit der Machine-Learning-Methode genauer erfasst werden als bei einem relativ homogenen Umfeld. Aktuell weisen die selbstlernenden Maschinen jedoch noch Schwächen bei Spezialimmobilien auf, die sich in Bauweise, Ausstattung oder Konzept deutlich von gewöhnlichen Immobilienkonfigurationen abheben. Doch die Genauigkeit steigt kontinuierlich mit jedem Datensatz, der der Maschine zur Verfügung gestellt wird.

 

ÜBER DEN TELLERRAND

Spielerisches Lernen kennen die meisten noch aus Kindertagen, jedoch können einfache Belohnungsmechanismen auch außerhalb von Konsolen Anwendung finden. Gamification heißt das Stichwort, das dabei helfen soll, bei Erwachsenen den Spieltrieb neu zu wecken. Ziel ist es, diese spielerisch an das jeweilige Produkt oder eine Marke zu binden. Die aus dem Marketing kommende Strategie ist inzwischen kein Geheimtipp mehr und nahezu überall einsetzbar – meist mit großem Erfolg.

MIT NIKE ZUM SPORTLICHEN SUPER MARIO WERDEN

Das wohl bekannteste Gamification-Beispiel der vergangenen Jahre kam 2018 von Nike in Zusammenarbeit mit Wieden + Kennedy Shanghai. Das Unternehmen hatte in der größten Stadt Chinas ein Videospiel im Super-Mario-Stil entwickelt. Um sich von den Eigenschaften des neuen Schuhmodells „Epic React“ zu überzeugen, konnten Interessenten mithilfe eines Avatars in die digitale Spielewelt eintauchen. In der realen Welt bewegten sich die Spieler auf einem Laufband vor einer Videokamera und wurden in die digitale Welt als pixelige Version ihrer selbst übertragen. Mit einem „Sprung-Auslöser“ in der Hand konnten die Spieler – jedoch nur im Spiel – mühelos über Hindernisse springen sowie durch Wälder, Wüsten und vorbei an Riesenpandas joggen und dabei Punkte sammeln – ganz im Sinne eines Super-Mario-Spiels. Ebenso weich, leicht und hüpfend wie die Animation des Spiels gestaltet war, wurde auch das neue Schuhmodell beschrieben. Zu guter Letzt erhielt jeder Spieler einen zehnsekündigen Clip seines digitalen Marathons, den er im Anschluss auf Social-Media-Kanälen teilen konnte.

DAS EIGENE HOTEL ALS SPIELPLATZ

Nicht nur bei den großen Sport-Marken wie Nike lassen sich Punkte durchs Joggen sammeln und danach mit Freunden, Familie oder fremden Läufern online vergleichen. Mittlerweile existieren viele Fitness-Apps, die durch den Wettbewerb mit anderen Sportlern oder durch nur kurzfristig verfügbare Prämien zum Laufen animieren wollen. Auch beim Recruiting und bei der Nachwuchsgewinnung werden Spiele immer beliebter: Spielerische Herangehensweisen werden dazu verwendet, auf kreativem Weg neue Mitarbeiter für das eigene Unternehmen zu gewinnen. Diese Taktik hat sich beispielsweise das Marriott International zunutze gemacht und ein Spiel namens „My Marriott Hotel“ entwickelt. Spieler können dort ihr eigenes Hotel oder andere Betriebe entwerfen, eröffnen, Inventar kaufen und Gäste bedienen. Für zufriedene Gäste erhalten sie Punkte und verlieren sie wiederum für schlechten (Kunden-)Service. Das Marriott International hofft so auf neue Bewerber mit ausgeprägter Leidenschaft für Gastronomie und Hotellerie.

SPIELEN FÜR DEN ERNSTFALL? EIN BAD-PRACTICE-BEISPIEL

Die U.S. Army hat ebenfalls die Möglichkeiten von Gamification für sich entdeckt, doch nur bedingt erfolgreich. Seit einigen Jahren schon werden Spiele für Trainingszwecke eingesetzt, um für den Ernstfall zu proben. Neu ist jedoch, dass die U.S. Army inzwischen auch Games verwendet, um potenzielle Rekruten anzuwerben: Mittels eines High-End-Games mit dem Titel „America’s Army Proving Grounds“ können sich die Spieler mit unterschiedlichsten Kriegssimulationen vertraut machen, ähnlich eines Egoshooters. Das Spiel vermittelt Informationen über militärisches Training und Taktiken, zudem können sich Interessierte direkt über die Spielewebsite für die U.S. Army bewerben. Dafür mussten die Spielbetreiber beziehungsweise die U.S. Army verständlicherweise einiges an Kritik einstecken, da fiktive Spiele keineswegs mit dem Militärdienst verglichen werden sollten.

Experten zufolge sind beim Thema Recruiting besonders die technologieversierten Millennials leichter auf spielerischem Weg zu erreichen. Doch ob sich Games wirklich zu einem ernst zu nehmenden „Business-Tool“ am Arbeitsmarkt entwickeln werden, hängt vielfach vom Produkt und der Umsetzung der spielerischen Mechanismen ab. Klar ist jedoch, der Spaßfaktor schafft Kundenbindung.

 

ZU GUTER LETZT

Inzwischen gibt es Algorithmen zum Finden des Traumpartners, des idealen Sommerurlaubs oder auch des attraktivsten Investments. Aber lässt sich auch der perfekte Pub-Crawl analysieren? Sogar das geht – mit den Analysemethoden von 21st Real Estate. Ähnlich wie bei der Berechnung der höchsten Geldautomatendichte haben wir alle deutschen Datenkacheln auf die Erreichbarkeit von Bars, Pubs und ähnlichen Gaststätten ausgewertet.

Zugegeben, der Sieger ist wenig überraschend: die Hamburger Reeperbahn. Dort gibt es etwa 134 Mal so viele Bars wie im deutschen Durchschnitt. Auf dem zweiten Platz landet jedoch nicht etwa die für ihre Partyszene bekannte Bundeshauptstadt, sondern Frankfurt am Main. Genauer gesagt die Neue Mainzer Straße in der Nähe der Taunusanlage. Dort können Partylöwen (und Löwinnen) zwischen Happy Hour und After Hour ein schier unerschöpfliches Angebot genießen.

Dafür ist Berlin mit den Plätzen drei und vier gleich doppelt vertreten, und zwar einmal im ehemaligen Osten und einmal im Westen. Die Ecke zwischen Torstraße und Schönhauser Allee im Stadtteil Mitte liegt dabei knapp vor dem Charlottenburger Kurfürstendamm. Während erstere etwa 68 Mal so viele Bars wie im Durchschnitt bieten kann, liegt der entsprechende Faktor für den vierten Platz bei 60.

Doch selbst der smarteste Algorithmus hat seine Grenzen. Daher können wir Ihnen leider nicht auf empirisch gesicherter Grundlage sagen, an welchem dieser Orte es den allerbesten Gin Tonic gibt. Hierfür raten wir also zum Selbstversuch.

Company

About us

Team

Data & Technology

Smart Data

Data security

Data & Technology

Smart Data

Data security

Kontakt

21st Real Estate GmbH

Bouchéstraße 12

12435 Berlin

info@21re.de