anordnung_makler-uhren.jpg

NEWSLETTER Q4/2019

LIEBE LESERINNEN UND LESER,

 

die erste Ausgabe von Data.Driven liegt vor Ihnen, und der Name unseres Newsletters ist Programm: In jeder Ausgabe geht es ganz zentral um die Unterstützung des Transaktionsprozesses und die Bewertung von Immobilien, also um den Kern der 21st-Vision. Gerade intelligente Algorithmen und selbstlernende Maschinen werden in den nächsten Jahren neben unserem Zusammenleben auch die Immobilienbewertung und -transaktion revolutionieren.

Aber keine Angst, es wird nicht zu technisch. Vielmehr wollen wir gemeinsam mit unseren Kooperationspartnern und externen Experten der Frage auf den Grund gehen wie wir mit Daten und Datenverarbeitung, in Form von Big Data, Smart Data und Schnittstellen, den Prozess der Immobilientransaktion schneller und auch sicherer machen können. Wie wir (menschliche) Fehlerquellen bei den wichtigen Prozessen reduzieren können und damit die Entscheidungskompetenz der Stakeholder wie zum Beispiel der Gutachter, Makler oder Asset-Manager unterstützen. Und wie wir über den Einsatz von künstlicher Intelligenz reden können, ohne Bedrohungsszenarien aus dem Reich der Science-Fiction zu entwerfen.

21st Real Estate wurde vor einigen Jahren mit einem ganz konkreten Ziel gegründet: Die Immobilientransaktion so zu digitalisieren, dass Einzelobjekte und ganze Portfolios irgendwann vollautomatisch gehandelt werden können. Ganz so wie Aktien. Bis dorthin ist es noch ein weiter Weg. Dieser erfordert nicht nur viel Detailarbeit, sondern es besteht ein mindestens genauso großer Diskussionsbedarf zwischen allen Beteiligten. Wir würden uns daher freuen, wenn Sie diesen Newsletter als Diskussionsplattform wahrnehmen. Tauschen Sie sich mit uns aus: Wie sollten wir als Gesellschaft den Herausforderungen und Chancen der Digitalisierung begegnen? Wo sehen Sie die Grenzen der Digitalisierung, sowohl aus ethischer wie technischer Sicht, und was bewegt Sie und Ihre Kollegen?

Wir freuen uns auf Ihr Feedback!

Ihr Herwig Teufelsdorfer

LEITARTIKEL

 

Edelmetalle wie Gold sind seit jeher fester Bestandteil vieler Portfolios – und das, obwohl sie keine laufende Rendite erwirtschaften. Der Grund liegt in einer antizyklischen Performance: Gerade in Krisenzeiten, wenn Aktien, Unternehmensanleihen und Private-Equity-Investments nicht mehr wie gewünscht performen und weitere Konjunktureinbrüche befürchtet werden, steigt in der Regel der Wert von Edelmetallen.

Ist ein solcher „Gold-Effekt“ auch für Immobilien realistisch? Schließlich steht in den Lehrbüchern der Immobilienökonomie, dass Wirtschaft und Immobilienmarkt prinzipiell miteinander korrelieren. Tatsächlich ist es möglich, an bestimmten Orten so zu investieren, dass sogar „Hedging“-Potenziale im Hinblick auf die deutschen Aktienmärkte existieren. Gemeint ist hierbei keine Form der Währungsabsicherung, sondern eine weiterhin positive Entwicklung der jeweiligen Immobilienwerte bei wirtschaftlichem Abschwung – und damit eine Absicherung der Wertpapiere durch Immobilien-Investments. Um dieses Hedging-Potenzial zu ermitteln, bedarf es jedoch einer ausreichend tiefen Datengrundlage.

MILLIONEN VON REFERENZDATEN

Das Hedging-Potenzial lässt sich anhand von Big Data beziehungsweise Smart Data ermitteln: Milliarden von Datenpunkte, bestehend aus Transaktions-, also Angebots- und Abschlusspreisen sowie die Informationen zahlreicher Bestandsmietverträge und Renditeniveaus, bilden dafür die Ausgangslage. Diese werden in Form einer regional definierten Datenkachel zu einem empirisch berechenbaren Wert zusammengefasst, der angibt, wie stark die Entwicklung der Wohnimmobilienpreise an jenem Standort mit der Entwicklung des deutschen Aktienmarkts korreliert.

Anschließend werden die Ergebnisse der einzelnen Kacheln über einen vorher festgelegten Zeitraum hinweg mit der jeweiligen Zeitreihe des DAX verglichen. Dabei wird für jede Kachel ein Betawert ermittelt, der aufzeigt, ob und wie stark die Preisentwicklung der Immobilie mit der Entwicklung des DAX korreliert. Konkret bedeutet das: Ist der Betawert einer Kachel größer als 0, zeigt dies, dass die Immobilienpreise gemeinsam mit dem Aktienkurs fallen. Für ein entsprechendes Hedging sind diese Lagen nicht geeignet. Ein Betawert zwischen 0 und -1 zeigt hingegen eine gesunde gegenläufige Entwicklung an. Die Kachel weist also Hedging-Potenzial auf. Ein Betawert kleiner als -1 bedeutet hingegen, dass die Volatilität der Immobilienpreisentwicklung zwar gegenläufig zum DAX ist, aber zu stark ausfällt, sodass diese Lagen ebenfalls nicht uneingeschränkt für Hedging-Strategien berücksichtigt werden sollten.

DAS HEDGING-POTENZIAL ALS ENTSCHEIDUNGSGRUNDLAGE

Anhand des prozentualen Anteils der jeweiligen Datenkacheln mit Hedging-Potenzial im gesamten Stadtgebiet lassen sich auch mehrere Städte direkt miteinander vergleichen. So kann aus diesen Berechnungen beispielsweise herausgelesen werden, dass Frankfurt am Main unter den Top-7-Städten das höchste (47,8 Prozent) und die Stadt Stuttgart das geringste Hedging-Potenzial (29,4 Prozent) besitzt – 47,8 Prozent aller Kacheln in Frankfurt am Main und 29,4 Prozent aller Kacheln in Stuttgart weisen also einen Betawert zwischen 0 und -1 und damit Hedging-Potenziale auf. Kleinere Städte wie beispielsweise Velbert in Nordrhein-Westfalen oder das hessische Rüsselsheim am Main weisen sogar noch deutlich höhere Hedging-Potenziale von mehr als 90 Prozent auf.

Es zeigt sich jedoch, dass die Berechnung des Hedging-Potenzials keinesfalls als alleiniges Investmentkriterium und somit losgelöst von allen anderen Kriterien betrachtet werden kann. Es geht also nicht darum, Rüsselsheim per se zum „Hidden Champion“ zu erklären. Vielmehr ist es wichtig, das Hedging-Potenzial als neues, zusätzliches Kriterium zu werten und mit anderen Indikatoren als Entscheidungsgrundlage heranzuziehen.

ÜBERRASCHENDE SIEGER

Zu diesen weiteren Kriterien gehört unter anderem die Frage nach dem Unter- beziehungsweise Überbewertungspotenzial der einzelnen Mikrolagen, das ebenfalls auf Basis der eingangs erwähnten Datenkacheln berechnet wird. Genauso wichtig sind Aspekte wie Überhitzungsgefahr, demografische Tendenzen und natürlich auch die Renditeniveaus. Erst mit all diesen Daten lässt sich berechnen, wie attraktiv eine Mikrolage (und daraus abgeleitet eine ganze Stadt) für Investoren tatsächlich ist. Wenn alle diese Kriterien mit einfließen, zeigt sich vor allem die Attraktivität kleinerer B-Städte. Allen voran: Kempten im Allgäu.

EXPERTENINTERVIEW

 

Genauso wie sich ein Pilot während des Fluges stets auf seine Instrumente verlassen muss, ist ein Finanzierungsspezialist bei der Analyse zur Kreditvergabe auf belastbare Marktinformationen angewiesen. Wie Smart-Data-Anwendungen die Prozesse der Immobilienfinanzierung bereits jetzt prägen, und was die nähere Zukunft bringen wird, erklärt Sascha Klaus, Vorstandsvorsitzender der Berlin Hyp.

Herr Klaus, wo früher händisch gearbeitet, gerechnet und kopiert wurde, kommt nun vollautomatische Software zum Einsatz. Welche Vorteile bietet das für Sie und Ihre Kunden?

Software-Tools auf Basis von künstlicher Intelligenz (KI) und Big Data kommen bei uns vor allem bei der Wertermittlung zum Einsatz. Bei unseren Valuation-Prozessen greifen wir sowohl auf Marktdaten als auch auf sozioökonomische und infrastrukturelle Informationen wie beispielsweise die Verkehrsanbindung zurück. Unser Ziel für die Zukunft ist es darüber hinaus, auf Basis selbstlernender Algorithmen Trends und Marktentwicklungen abzuleiten und somit vorwegzunehmen. Wenn es um die Frage nach der langfristigen Stabilität eines Investments geht, sind solche Informationen sehr wertvoll. Generell gilt: Je mehr valide Daten wir besitzen und auswerten können, desto fundierter wird unsere Entscheidungsgrundlage.

Wie gehen Sie bei der Weiterentwicklung dieser Softwares vor?

Wichtig für uns ist, dass die Anwendungen exakt zu unseren Prozessen passen. Daher kooperieren wir direkt mit PropTechs wie der 21st Real Estate. Auf der Datenbasis von 21st entwickeln wir zurzeit ein Tool zur digitalen Wertermittlung, das den Arbeitstitel „C7“ trägt. Mit dieser Anwendung können wir erstmals Wertindikatoren innerhalb weniger Minuten analysieren und belastbare Ergebnisse generieren. Für uns ist das ein großer Effizienzgewinn, und unsere Kunden profitieren davon in Form einer kürzeren Bearbeitungsdauer. Gerade bei der Finanzierung großer, komplexer Immobilienportfolien entsteht für uns ein wichtiger Geschwindigkeitsvorteil – zumal der Zeitdruck ja in der gesamten Branche immer weiter zunimmt. Bei der Wertermittlung handelt es sich jedoch nur um einen Teilbereich unserer Digitalstrategie. Unser Ziel ist es, den gesamten Kreditprozess schneller zu gestalten.

Müssen Ihre Gutachter da nicht zu IT-Spezialisten werden?

Nein. Zwar wird sich die Arbeitsweise des Gutachters bei uns infolge dieser digitalen Transformation durchaus in gewissem Umfang ändern – aber nicht das Kernprofil des Jobs. Ich vergleiche das gerne mit einem Piloten und seinem Cockpit. KI-basierte Anwendungen bedeuten, dass unsere „Piloten“ nicht mehr in einer alten Propellermaschine, sondern in einem modernen Passagierjet sitzen. Trotz der besseren Instrumente braucht es aber immer jemanden, der die Verantwortung trägt und die Kontrolle übernimmt – der Mensch wird keinesfalls entmündigt. Anstatt sich mit administrativen und gegebenenfalls repetitiven Tätigkeiten auseinanderzusetzen, bleibt unseren Gutachtern dank der smarten Technologie mehr Zeit, die Ergebnisse der Software zu interpretieren und daraufhin die richtigen Entscheidungen zu treffen.

Die Software ersetzt also keine Prozesse, sondern unterstützt sie eher?

Richtig. Die besagten Machine-Learning-Analysen sind für uns ein zusätzliches Kriterium für die Wertermittlung. Wir bewegen uns bei der gewerblichen Immobilienfinanzierung ja auch in einem stark regulierten Segment und müssen sehr spezifische Vorgaben erfüllen. Da wäre es nicht nur unvernünftig, sondern auch rein rechtlich nicht möglich, sich allein auf eine Maschine zu verlassen. Aktuell erlebe ich auch, dass sich die Regulatoren intensiv mit der Frage befassen, wie sich rechtliche Grundlagen für künstliche Intelligenzen sowie die Themen Big und Smart Data für Hypothekenbanken schaffen lassen. Aber selbst wenn diese Voraussetzungen einmal existieren und die Technologien noch weiter fortgeschritten sind, werden unsere Gutachter nach wie vor auch klassische Validierungsmethoden einsetzen. Schließlich ist und bleibt die gewerbliche Immobilienfinanzierung ein hochkomplexer Prozess, bei der Sie nicht einfach eine Adresse in eine Datenbank eingeben und sofort alles über die Immobilie wissen können. Eine Begehung des Objektes bleibt beispielsweise unumgänglich. Über den Erfolg oder Misserfolg einer Bank wird also auch in Zukunft die Qualität der menschlichen Arbeit entscheiden. Ganz so, wie es beim eingangs erwähnten Flugkapitän der Fall ist.

PRAXISBEISPIEL

 

Von Amar Eskef, Head of Data Science, 21st Real Estate

Eine Wohnung mag noch so gut geschnitten sein, noch so nahe am eigenen Arbeitsplatz liegen oder noch so sehr architektonisch beeindrucken: Wenn für einen potenziellen Käufer oder Mieter das Bauchgefühl nicht stimmt, wird er sich nicht für sie entscheiden. Genau dieses Bauchgefühl, das sich aus vielen kleinen Details zusammensetzt, sorgt in der Immobilienwirtschaft oft für Kopfzerbrechen – sei es für Projektentwickler oder institutionelle Investoren. Erstere müssen neben den wirtschaftlichen Kennzahlen bislang vor allem auf ihr eigenes Gespür setzen, um vorherzusagen, wie erfolgreich ein anstehendes Projektvorhaben ausfallen wird. Letztere müssen sichergehen, dass eine Einzelimmobilie oder auch ein Portfolio selbst nach Jahrzehnten noch Mieter anzieht und einen stabilen Cashflow generiert.

Mit anderen Worten: Für die Akteure der Immobilienwirtschaft ist es wichtig, genau dieses Bauchgefühl zu quantifizieren, also die einzelnen Faktoren empirisch korrekt abzubilden. Um genau dies zu gewährleisten, werden inzwischen auf Basis von unzähligen sozioökonomischen Datenpunkten und intelligenter Algorithmen solche Prognosen der Mikro- und Makrolage erstellt beziehungsweise weiterentwickelt. Dabei lassen sich Kriterien wie Familienfreundlichkeit, Urbanität oder auch die Frage, wie viel Grün in der Umgebung ist, für jede Mikrolage genau analysieren und somit zur Preisermittlung heranziehen. Aber wie genau funktioniert dieser Prozess?

AM ANFANG STEHT VIEL DETEKTIVARBEIT

Zunächst einmal wird ganz Deutschland in einheitliche, geografisch begrenzte Datenkacheln eingeteilt. Diese umfassen aktuell in den Metropolen und größeren Städten jeweils 200 mal 200 Meter. Für all diese Kacheln muss nun – mit relativ großer Detektivarbeit – aufbereitet werden, wie viele Kindertagesstätten, Schulen, Einkaufsmöglichkeiten Bars, Restaurants und andere Freizeitangebote, aber auch Tankstellen oder Geldautomaten dort vorhanden sind.

Bleiben wir beim Beispiel der etwa 50.000 deutschen Kitas als wichtiger Indikator für die Familienfreundlichkeit der jeweiligen Mikrolage. Natürlich lassen sich die einzelnen geografischen Kacheln nicht einfach danach aufteilen, ob sich eine oder mehrere entsprechende Einrichtungen direkt innerhalb ihrer Grenzen befinden. Schließlich wäre es sonst möglich, dass die Grenze der Kacheln genau zwischen Wohnung und Kita verläuft, obwohl diese nur einige Meter Laufweg entfernt ist.

Deshalb werden all diese Kacheln miteinander über Reisezeiten verbunden: Auf Basis des deutschen Straßennetzes und entsprechender Programme wird berechnet, wie lang man von jeder Kachel zu jeder anderen Kachel unterwegs wäre. Auch topografische Hindernisse können so abgebildet werden: Beispielsweise, wenn ein Fluss zwei aneinandergrenzende Kacheln trennt und ein Umweg über eine Brücke nötig ist. Über diese Reisezeit lässt sich in Form eines Zahlenwerts ableiten, wie sehr eine Kachel (mitsamt ihrer Kita) auf alle anderen Kacheln ausstrahlt. Durch diesen Zahlenwert lassen sich die einzelnen Kacheln innerhalb einer Stadt belastbar miteinander vergleichen.

VOM EINZELMERKMAL ZUM AGGREGIERTEN VERGLEICHSWERT

Im nächsten Schritt werden die Ergebnisse gleichmäßig in Form eines Scores aufgeteilt: Die Kacheln mit den höchsten Zahlenwerten erhalten den Score 100, die mit den niedrigsten den Score eins. Dazwischen werden alle Kacheln gleichmäßig auf die Scores verteilt, sodass die Anzahl der Kacheln, die einen bestimmten Score-Wert erreichen, immer gleich groß ausfällt. In Berlin etwa, wo es rund 25.000 dieser Datenkacheln gibt, erzielen jeweils 250 Kacheln einen Score-Wert von 100, 250 Kacheln erzielen einen Wert von 99 und immer so weiter. Damit sind die Kacheln direkt miteinander vergleichbar, nicht aber mit den Scores anderer Städte. Oder mit anderen Worten: Mit dieser Methodik lässt sich herausfinden, welche die „Kita-freundlichsten“ Lagen in Berlin, München, Kassel oder Koblenz sind – nicht jedoch, ob Berlin oder Kassel im direkten Vergleich das qualitativ hochwertigere Kita-Angebot hat. Hierfür wiederum gibt es andere Methoden, beispielsweise einen Vergleich der Kita-Dichte pro Einwohner.

Natürlich entscheiden die Kita-Plätze nicht allein, wie familienfreundlich ein Bezirk tatsächlich ist. Daher werden die einzelnen Scores für Kitas mit denen für Schulen, Spielplätzen und auch Grünflächen gewichtet und als aggregierter Wert ausgegeben. Gleiches wird für störende Faktoren wie beispielsweise Verkehrs- oder Industrielärm durchgeführt, was ebenfalls in das Ranking mit einfließt. Erst an diesem Punkt ist die Prognose empirisch belastbar, ob sich beispielsweise ein auf Familien ausgerichtetes Wohnhaus auch gut vermieten lässt beziehungsweise ausreichend Nachfrage generiert.

AUCH DIE DATEN WANDELN SICH

Für Investoren, die ihr Portfolio unter einheitlichen Investmentkriterien räumlich diversifizieren wollen, ergibt sich also nicht nur die Möglichkeit, Standortbewertungen für konkrete Immobilienangebote vorzunehmen. Genauso sind alternative Lagen in anderen Städten identifizierbar. Zudem können Investoren bei der Suche nach dem geeigneten Investmentstandort die für sie wichtigen Kriterien clustern – und sich beispielsweise nur Kacheln anzeigen lassen, die sowohl familienfreundlich als auch nahe am Wasser gelegen sind und zudem noch ein gewisses Kaufkraftniveau aufweisen.

Keine Frage: Die deutschen Städte durchlaufen einen ständigen Wandel. Allein in Berlin haben sich in den vergangenen zehn Jahren gleich mehrere Kieze vom Problemstandort zum Szeneviertel gemausert. Daher müssen natürlich die unzähligen Datenpunkte, die für eine solche Standortbewertung herangezogen werden, in regelmäßigen Abständen überprüft und plausibilisiert werden. Das ist mit viel Arbeit verbunden, aber birgt auch einzigartige Chancen. Erstmals erhält die Immobilienbranche die technische Möglichkeit, nicht nur die „weichen“ Lagekriterien eines Standorts zu ermitteln, sondern letztlich auch den Wandel ganzer Städte infolge der veränderten Datenpunkte und Scores empirisch genau festzuhalten.

 

ÜBER DEN TELLERRAND

Elon Musk ist nicht nur als tollkühner Unternehmer bekannt. Genauso legendär sind seine Vorträge, in denen er Zukunftstechnologien präsentiert, die schnell den Ruf haben, die Grenze zur Science-Fiction zu überschreiten. In dieser Tradition kann man auch Musks neuste Produktvorstellung verstehen: Die Entwicklung einer künstlichen Intelligenz, so Musks Prophezeiung, werde schon bald eine unkontrollierbare Gefahr für ihre Erschaffer.

Um zu verhindern, dass die Software den Menschen nicht hinter sich lässt oder sogar unterwirft, hätten wir gar keine andere Wahl, als sich mit ihr zu verbinden und zu zähmen. Zum Glück gäbe es da noch ihn, Elon Musk und seine Firme Neuralink, die den Aufstand der Maschinen in letzter Minute stoppen werden. Die Firma entwickle unter anderem mit Elektroden besetzte Fäden, die sich ins Gehirn implantieren lassen und als Gehirn- Computer-Interface dient. Diese Interfaces, zu Deutsch Neuroprothesen, seien Schnittstellen zwischen dem Nervensystem und elektronischen Bauteilen. Das klingt nicht nur bedrückend, sondern auch nach dem Drehbuch einer Filmdystopie.

Wenn es um den tatsächlichen Ist-Stand bei der Künstlichen Intelligenz und bei Mensch- Maschine-Schnittstellen geht, sind Mystifikationen oder Sci-Fi fehl am Platz. Diese Anwendungen unterstützen den medizinischen Fortschritt: Der erste querschnittsgelähmte Mensch, der ein Gehirn-Implantat bekam, war Metthew Nagle. 2006 bewegte Nagle einen Mauszeiger auf einem Monitor, nur mit seinen Gedanken. Bei der sogenannten Tiefen Gehirnstimulation werden Patienten Elektroden ins Gehirn implantiert, um Parkinson zu bekämpfen. Mikroelektrodenarrays sind kleine Geräte, die mehrere Plättchen oder Nadeln enthalten, durch die neuronale Signale aufgenommen oder abgegeben werden können. Ein Team aus den USA hat damit eine Gehirn-zu-Gehirn-Netzwerk entwickelt, über das Probanden wortlos kommunizieren können.

Das alles sind Spezialfälle. Aber wie sieht es mit der breiten Masse aus? Es ist unwahrscheinlich, dass entsprechende Implantate bald zu einem alltäglichen Produkt werden. Dennoch kommen innovative Mensch-Maschine-Schnittstellen und die Umwandlung zwischen digitalen und analogen Informationen immer häufiger in der Arbeitswelt zum Einsatz. – und ersetzen die Zweidimensionalität eines Computer- oder Smartphone- Bildschirms, über den bislang der größte Teil an digitalen Daten präsentiert und wahrgenommen wird. Ein Beispiel dafür findet sich in modernen Logistikzentren. Dort werden für das Einsammeln von Waren und zur Zusammenstellung von Online-Bestellungen inzwischen Datenbrillen verwendet, die die Lage der Produkte und die zurückzulegende Wegstrecke direkt auf die Netzhaut des Mitarbeiters projizieren. Wenn dieses Vorgehen Schule macht, werden sich sicherlich auch andere Branchen von diesen Technologien inspirieren lassen und zunehmend „bildschirmfrei“ agieren.

 

ZU GUTER LETZT

Wer sich einmal beim Warten auf einen Freund die Beine in den Bauch gestanden hat, der weiß, dass die Worte „nur mal kurz“ zu den Wendungen mit dem größten Bedeutungsspielraum in der deutschen Sprache zählen. Aber auch bei der Ermittlung dieser Zeitspanne kann Big Data Abhilfe schaffen.

Wenn Ihr Freund beispielsweise in Berlin-Charlottenburg „nur mal kurz“ Geld abheben gegangen ist, stehen die Chancen ganz gut, dass er bald wiederkommt. An der Joachimsthaler Straße zwischen Kantstraße und Kurfürstendamm ist die Dichte und Erreichbarkeit von Geldautomaten bundesweit am besten. Dies haben wir auf Basis unserer Datenkacheln herausgefunden. Ähnlich hoch ist die Geldautomaten-Dichte zwischen dem Münchener Hauptbahnhof und dem Stachus.

Am drittkürzesten müssen Sie jedoch nicht etwa in Hamburg oder Frankfurt am Main warten, sondern im Norden der Mainzer Altstadt. Dort ist die Geldautomatendichte beinahe zwölfmal so hoch wie im Durchschnitt aller Datenkacheln der deutschen Städte ab 20.000 Einwohner.

Mit anderen Worten: Die einzige mögliche Hürde beim schnellen Gang zum Geldautomaten ist an diesen Orten der eigene Kontostand.

Company

About us

Team

Data & Technology

Smart Data

Data security

Data & Technology

Smart Data

Data security

Kontakt

21st Real Estate GmbH

Bouchéstraße 12

12435 Berlin

info@21re.de