Archiv | Regulierung RSS feed for this section

Sollte Google nach dem Vorbild des öffentlich-rechtlichen Rundfunks umgestaltet werden?

19 Aug

Was mir wie eine Satire vorkommt , scheint ernster zu sein, als ich selbst glauben würde. Aber der Reihe nach:

Zwei Meldungen über Google fand ich in der letzten Woche sehr interessant. Das war zum einen die Pressemeldung über die interdisziplinäre Studie meiner Mainzer Kollegin Birgit Stark (Publizistik) und der Kollegen Dieter Dörr (Jura) und Stefan Aufenanger (Pädagogik) über die Googleisierung der Welt. Die Studie habe ich leider bisher nicht finden können, nur die Pressemeldung über die Studie und eine Kurzzusammenfassung für irgendein Management, leider. Die Befunde haben mich nur mäßig überrascht. Dass etwa viele „die Google-Internetsuche weitgehend unkritisch [nutzen] und (…) nur wenig darüber [wissen], wie Trefferlisten zustande kommen“, hätte ich auch erwartet. Das gilt vermutlich auch für Nachrichten und Presseerzeugnisse und Medienprodukte allgemein . Die meisten Leserinnen und Leser werden nicht genau wissen, wie Beiträge und Meldungen in der Zeitung ausgesucht werden, warum was bei der Tagesschau in welcher Reihe vorgelesen werden, und warum anderes, z. B. bei der taz nicht vermeldet wird (wenn nicht gerade Stefan Niggemeier darüber berichtet ;-). Überrascht haben mich aber die Forderungen, die Stark, Dürr und Auenanger aus der Studie ableiten. Diese Empfehlungen erscheinen einerseits hochgradig interventionistisch, andererseits aber auch etwas naiv. Dazu nur ein Beispiel:

Eine Forderung ist, dass „Suchmaschinenbetreiber keinen Einfluss auf das Ranking von Suchergebnissen nehmen“ dürfen. Wenn das wörtlich gemeint sein sollte, ist es natürlich kompletter Unsinn, da ja gerade der Sinn von Suchmaschinen darin besteht, Trefferlisten zu ordnen, in der Regel durch ausgeklügelte Suchalgorithmen. Jeder Suchmaschinenbetreiber muss also Einfluss auf das Ranking von Suchergebnissen nehmen – eine rein zufällige Anordnung der Treffer wäre für die meisten Nutzer ebenso wertlos als wenn in der Tagesschau eine rein zufällige Auswahl von Pressemeldungen verlesen würde. Gemeint ist vermutlich die Debatte um den sog. „Search Bias“, also die bewusste Verzerrung von Ergebnislisten mit dem Ziel, eigene Produkte (wie Google Maps, Youtube etc.) zu bervorzugen und andere zu benachteiligen. Dies ist ja auch der Kern der Wettbewerbsverfahren gegen Google und – wie sich zeigt – erstens nicht gerade trivial festzustellen, weil es in der Natur des Wettbewerbs zwischen Suchmaschinen liegt, den Algorithmus permanent zu verberssern und somit auch zu verändern. Und zweitens ist eine staatliche Genehmigung oder Kontrolle aller Änderungen des Suchalgorithmus (am besten gleich in China) eine ziemliche Horrorvorstellung – ich arbeite an einer staatlichen Universität und weiß nur zu gut wie Behörden funktionieren….dezidierte (unzensierte 😉 Ausführungen meinerseits finden sich dazu übrigens in diesem (mit C. Kehder verfassten) Arbeitspapier. Eine permanente behördliche Kontrolle (in jedem Land? Bundesland?) halte ich hier für absolut abwegig ,weil faktisch unmöglich. Zugleich wäre es faktisch Zensur.

Einige, wie ich finde sehr lesenswerte, Gedanken hat sich auch Claus Hesseling in seinem Blog-Beitrag gemacht: Uni-Profs fordern eine Bundesanstalt für Suchmaschinen-Ranking-Kontrolle (BfSRK) – ich übrigens nicht 😉 Ein sehr gelungener Kommentar aus meiner Sicht!

Die zweite interessante Meldung zu Google ist schon mehr als eine Woche alt, aber ich habe sie gerade erst entdeckt. Die tolle interaktive Grafik vom Economist über die rasanten Marktanteilsgewinne von Google Chrome weltweit. 2008 war von Google Chrome noch nichts zu sehen, mittlerweile ist der weltweite Marktanteil deutlich über 40 Prozent und insbesondere der Microsoft Explorer im freien Fall (und Netscape nicht mehr sichtbar). Deutschland, Polen, Indonesien, Myanmar und die Mongolei (eine interessante Gruppierung) sind wohl die einzigen  echten Bastionen von Mozilla Firefox – dort jeweils seit 2008 Marktführer. Daher habe ich den Siegeszug von Google Chrome hier in Deutschland wohl auch gar nicht so bemerkt, in jedem Fall auch wettbewerbsökonomisch eine spannende Entwicklung.

Nachtrag (21.08.2013): Mein mit Ulrich Heimeshoff verfasster Beitrag „Google, Facebook, Amazon, eBay: Is the Internet driving competition or market monopolization?“ is nun in International Economics and Economic Policy erschienen (nicht mehr ganz aktuelle Preprint-Version hier).

Advertisements

Vier gewinnt: Fusion von E-Plus und O2 dürfte Wettbewerb erheblich schwächen

28 Jul

Den geplanten Zusammenschluss von E-Plus und O2 auf dem deutschen Mobilfunkmarkt sehe ich kritisch, wie auch das Handelsblatt heute berichtet.

Bisher war der Markt durch sehr lebhaften Wettbewerb gekennzeichnet, der gerade von den beiden kleinen Anbietern befeuert wurde. Neue Tarifmodelle sind stets zuerst von E-Plus und O2 eingeführt wurden, Preissenkungen sind fast immer von diesen beiden Anbietern ausgegangen. Auch waren E-Plus und O2 die ersten, die ihre Netze für dritte Anbieter geöffnet haben (Aldi-Talk, Tchibo, etc.) und Skype auf ihrem Netz zugelassen haben (O2). Ein wesentlicher Grund für diesen intensiven Wettbewerb war die hohe Asymmetrie zwischen den beiden kleinen und den beiden großen Anbietern: die beiden kleinen Anbieter haben wesentlich andere Interessen (Wachstum, Marktanteilsgewinne, um so ihre Durchschnittskosten zu senken) als die beiden großen Anbieter (Margen sichern) und fahren daher auch andere Wettbewerbsstrategien. Davon lebt der Wettbewerb heute in erheblichem Ausmaß.

Durch den geplanten Zusammenschluss käme es nun zu einer Situation mit drei nahezu identisch großen Anbietern, die jeweils fast genau ein Drittel des Marktes hätten. Damit würden auch die Interessen der Anbieter „harmonisiert“ und sich die Wettbewerbsstrategien der drei Netzbetreiber vermutlich angleichen. Es entstünde leicht eine Situation kollektiver Marktbeherrschung, in der es stillschweigend zu Nichtangriffspakten kommt (ohne dass unbedingt ein echtes Kartell vorliegt). Anders ausgedrückt besteht die Gefahr, dass der Mobilfunkmarkt erheblich an seiner bisherigen Wettbewerbsdynamik verliert, weil der fusionierte Anbieter ein viel geringeres Interesse an Wettbewerbsvorstößen hat als die beiden kleinen bisher.

Interessant ist in diesem Kontext, dass KPN (die Muttergesellschaft von E-Plus) im Juli 2007 eine Beschwerde beim Bundeskartellamt eingereicht hat, in der KPN die Sicht vertritt, dass auf dem deutschen Mobilfunkmarkt kein wesentlicher Wettbewerb herrscht. Das Kartellamt hat die Ermittlungen zwar Ende 2009 eingestellt, aber selbst erhebliche Zweifel am Wettbewerb zwischen T-Mobile und Vodafone geäußert, da deren Interessen und Verhaltensweisen so ähnlich seien. Ich selbst habe die Sichtweise des Bundeskartellamtes damals nicht geteilt und darauf verwiesen, dass gerade von O2 und E-Plus erhebliche Wettbewerbsimpulse ausgehen, weil diese eben in einer ganz anderen Situation sind als Vodafone und T-Mobile (Details dazu in unserem Papier zum Wettbewerb im deutschen Mobilfunk, später publiziert  in der Zeitschrift für Wirtschaftspolitik). Durch die geplante Fusion von O2 und E-Plus würde sich aber diese Situation gerade ganz fundamental ändern.

Wichtig ist auch, dass seit dem 30.6.2013 ein novelliertes Wettbewerbsrecht in Deutschland gilt. Um eine Fusion zu untersagen, muss nun nicht mehr eine marktbeherrschende Stellung begründet oder verstärkt werden (das war bis zum 30.6.2013 so). Seitdem reicht es nach §36 GWB schon aus, wenn „wirksamer Wettbewerb erheblich behindert würde.“ Gerade eine Fusion zwischen dem dritt- und viertgrößten Anbieter im Markt wird dadurch  einfacher, sollte das Bundeskartellamt den Fall übernehmen.

Die geplante Fusion ist in Teilen den verfehlten Regulierungsvorgaben der Europäischen Kommission zu verdanken. Die Monopolkommission hat das wiederholt kritisiert, bereits 2009 im Sondergutachten 56 (Tz. 126 und Tz. 176), und zuletzt im Sondergutachten 61 (Tz. 83). Die Europäische Kommission forciert seit 2009 die Konsolidierung des Mobilfunkmarktes und gräbt durch ihre Regulierungsvorgaben gerade den kleinen Anbietern das Wasser ab. In den letzten Jahren sind die sog. Terminierungsentgelte ganz drastisch abgesenkt worden, ebenso die Roaming-Entgelte. Das sieht vordergründig richtig aus, führt aber leicht dazu, dass die kleinen Anbieter nicht mehr am Markt bestehen können, weil man sie überall dort, wo sie noch Margen verdienen können, durch eine extrem drastische Regulierung austrocknet. Die Monopolkommission hatte 2011 jedoch festgestellt, dass „der Wettbewerb im Mobilfunk (…) maßgeblich von der gegenwärtigen Marktstruktur mit vier unabhängigen Netzbetreibern und einer größeren Anzahl von Serviceprovidern ab[hängt]. Gefährdungen für den Wettbewerb können von einer zu intensiven Regulierung der Mobilfunkmärkte und der bestehenden Asymmetrie bei der Ausstattung mit Flächenfrequenzen unterhalb von 1 GHz ausgehen.“ (siehe hier).

Während die Europäische Kommission im Festnetzbereich bereits umschwenkt und wieder stärker auf Investitionsanreize (in Breitband) achtet, soll der Mobilfunk nach wie vor nach wesentlich strengeren Kostenmaßstäben reguliert werden. Vordergründig profitieren die Verbraucher von diesen Preissenkungen – wenn nun aber ein Mobilfunker in Deutschland wegfällt, werden die Verbraucher die Zeche dafür nach meiner Einschätzung doppelt und dreifach zahlen, weil sie weniger Auswahl haben werden und die Wettbewerbsdynamik ziemlich gebremst werden dürfte.

Nachtrag (29.07.2013): Nils Lemberg hat mich zurecht darauf hingewiesen, dass zunächst einmal die Europäische Kommission für die Fusionskontrolle in diesem Fall zuständig ist (vgl. auch seinen Blog-Eintrag hier). Allerdings kann das Bundeskartellamt einen Antrag auf Verweisung stellen, um den Fall zu übernehmen. Andreas Mundt hat sich dazu bereits indirekt geäußert, wie das Handelsblatt berichtet.

Nachtrag II (06.08.2013): Wäre es für die Kunden nicht vorteilhaft, wenn ein großer Anbieter für eine bessere Netzabdeckung sorgen würde, mag man fragen, wie z.B. egghat und Jakob Steffen in ihren Kommentaren unten anmerken. In der Tat mag dies durchaus sein. Jedoch ist dafür keine Fusion erforderlich. Zum einen werden demnächst eine ganze Reihe von Frequenzen frei, die für den Mobilfunk genutzt werden können, auch ohne Fusion. Und zum anderen – und das ist noch wichtiger – ist auch ohne einen Unternehmenszusammenschluss eine gemeinsame Frequenznutzung durch vertragliche Vereinbarungen möglich. So hat z.B. in der Vergangenheit O2 das Netz von T-Mobile mit genutzt, ohne dass die Unternehmen sich gleich zusammengeschlossen haben. Man kann das Netz auf der einen Seite gemeinsam nutzen (durch sog. National Roaming-Vereinbarungen bzw. „Infrastructure Sharing“), aber auf der anderen Seite trotzdem um die Kunden konkurrieren. Das ist z. B. im Festnetz völlig normal, wo viele Anbieter das Netz der Deutschen Telekom mit nutzen, und das geht auch ganz ohne Fusion. Kartellrechtlich ausgedrückt sind diese Vorteile wohl nicht „fusionsspezifisch“, weil sie eben auch ohne Fusion realisiert werden können. – Kommentar dazu sollte in den nächsten Tagen auch in der Fuldaer Zeitung erscheinen.

Nachtrag III (06.08.2013): E-Plus-Tochter blau.de wagt heute einen interessanten Wettbewerbsvorstoß und schafft internationale Roaminggebühren (fast) ab. Auch dies belegt die Bedeutung von E-Plus für den Wettbewerb.

Wie wir das Klima mit Stromfressern wie Nachtspeicheröfen retten! Echt.

29 Mai

Der Bundestag hat am 17. Mai 2013 beschlossen, das 2009 beschlossene Verbot von Nachtspeicheröfen zurückzunehmen, weil Nachtspeicheröfen in Zeiten der Energiewende auch als flexible Stromspeicher genutzt werden könnten. Die Abgeordneten der Koalition haben für eine entsprechende Änderung im Energieeinspargesetz (EnEG) gestimmt, die SPD enthielt sich, die Grünen und die Linken haben dagegen votiert (Bericht im Spiegel dazu hier und bei Yahoo! hier). Noch vor vier Jahren hatte die damalige große Koalition aufgrund der hohen CO2-Emissionen eine Novelle des EnEG beschlossen, nach der Nachtspeicherheizungen bis zum 31.12.2019 verboten wurden  – allerdings mit ein paar Ausnahmen für die Hausbesitzer, die in der Vergangenheit einmal verpflichtet wurden, Nachtspeicheröfen einzubauen.

In der Presse wurde dies als Klientelpolitik zugunsten von Immobilienbesitzern und/oder Energiekonzernen (z. B. hier  oder hier) kritisiert. Der Spiegel sprach vom „Nachtspeicher-Irrsinn“ und von einem „Sargnagel für die Klimapolitik“ (und zwar: hier), weil Nachtspeicheröfen Stromfresser sind (was ohne Zweifel richtig ist). Aber es gab auch positive Kommentare (z. B. vom Kollegen André Thess in der Thüringer Allgemeinen), da wir ja Stromspeicher für die Energiewende gut gebrauchen können.

Was viele in der Debatte völlig zu übersehen scheinen, ist folgendes: Das Abschalten der Nachtspeicheröfen und das Austauschen gegen Gasheizungen oder moderne Pellet-Heizungen schädigt das Klima. Warum? Das hört sich doch total paradox an. Und das ist es in gewisser Weise auch, aber es ergibt sich direkt aus der aktuellen Ausgestaltung der Klimapolitik in Europa. Wieso?

Ganz kurz: Die gesamte Stromerzeugung in Europa unterliegt dem Europäischen Emissionshandel (EU ETS (EU Emissions Trading System) oder hier mal etwas vereinfacht als CO2-Handel bezeichnet)  und der damit verbundenen CO2-Obergrenze. Das gesamte Ausmaß an CO2-Emissionen in der EU ist durch den Europäischen Emissionshandel in den davon erfassten Sektoren gedeckelt (genaue Erklärung z. B. hier bei Wikipedia). Die Stromerzeugung gehört zu den erfassten Sektoren, der Wärmebereich – abgesehen vom Heizen mit Strom – dagegen nicht. Heizen per Nachtspeicheröfen ist also, weil es ja durch Strom geschieht, VOLL vom CO2-Handel erfasst. Durch diese Heizungen wird also kein Gramm zusätzliches CO2 in Europa ausgestoßen. Das Heizen mit Gas und Pellets hingegen ist nicht vom CO2-Handel erfasst (dies ist im Übrigen das wirkliche Problem, dass der Wärmemarkt beim CO2-Handel außen vor ist). Wird also ein Nachtspeicherofen durch eine Gas- oder Pellet-Heizung ersetzt, werden CO2-Zertifikate frei, die an anderer Stelle genutzt werden können, um dann dort CO2 auszustoßen, während zugleich durch das Heizen mit Gas oder Pellets mehr CO2 in die Luft gepulvert wird.

So paradox es sein mag: Laufen die Nachtspeicheröfen nun einfach weiter, wird also kein Gramm zusätzliches CO2 in die Luft gepulvert, weil die von der EU festgelegte Obergrenze für den CO2-Ausstoß eben unverändert bleibt. Im Gegenteil: Es wird sogar weniger CO2 in die Luft gepulvert als beim Heizen mit Gas oder Pellets, weil diese beiden Heizformen eben nicht unter die CO2-Obergrenze fallen und nicht vom CO2-Handel erfasst werden. Das Heizen mit Nachtspeicheröfen führt also bei der heutigen Ausgestaltung des EU ETS aufgrund seiner immanenten Logik  in der Gesamtbetrachtung zu einem geringeren CO2-Ausstoß als das Heizen mit Gas oder Pellets. (Dies kann man im Übrigen auch schön nachlesen im Buch meines Kollegen Joachim Weimann über die „Klimapolitik-Katastrophe“).

Es greift  immer weider dieselbe Logik:  Beim Glühbirnenverbot (irrelevant für den CO2-Ausstoß wegen EU ETS), EEG (irrelevant für den EU-weiten CO2-Ausstoß wegen EU ETS) oder Atomausstieg (irrelevant für den EU-weiten CO2-Ausstoß wegen EU ETS). Im Falle des Atomausstiegs hat sich im Übrigen auch der Präsident des Umweltbundesamtes, Jochen Flasbarth, diese Argumentation (zurecht) einmal zu eigen gemacht (siehe z. B. hier im Handelsblatt). Jedoch gilt die Logik des Emissionshandels nicht nur für den Atomausstieg, sondern natürlich auch bei Glühbirnenverbot, Nachtspeicheröfen und EEG. Der CO2-Ausstoß wird durch die im EU ETS festgelegte Obergrenze an CO2 begrenzt.  Weil aber die Stromerzeugung vom EU ETS erfasst ist, das Heizen mit Gas und Pellets aber nicht, führt das Abschalten von Nachtspeichern und ein Umstellen auf Gas und Pellets – so paradox das ist – zu mehr CO2-Emissionen.

Reformbedarf besteht daher beim Europäischen Emissionshandel. Der Wärmemarkt sollte hier komplett mit einbezogen werden, also auch das Heizen mit Öl, Gas und Pellets (ebenso wie übrigens der gesamte Verkehrsbereich). Dies lässt sich bei den Endverbrauchern zwar schwer bewerkstelligen, könnte aber zumindest bei Öl und Gas auf der Großhandelsstufe ansetzen. Dann würde man auch keine Verbote benötigen – der unterschiedliche CO2-Ausstoß würde sich in unterschiedlichen Kosten für die verschiedenen Heizformen widerspiegeln. Das mangelnde politische Interesse an einer Reform des Europäischen Emissionshandels zeigt jedoch – leider, leider – wie gering das politische Interesse an echtem Klimaschutz ist.

Was die drastische Kritik im Spiegel an der Aufhebung des Verbots an  Nachtspeicherheizungen angeht – da sollte Spiegel-Redakteur Alexander Neubacher („Ökofimmel“) vielleicht seinem Kollegen Stefan Schultz mal ein Exemplar seines Buches spendieren. 😉

Marktversagen beim Breitbandausbau?

27 Apr

Besteht Marktversagen, wenn der Markt nicht produziert, was keiner haben will? So könnte man etwas provokant zusammenfassen, worin es in der Diskussion um den hochleistungsfähigen Breitbandausbau im Kern eigentlich geht. Ist möglichst viel möglichst schnell wirklich optimal? Ist es tragisch, wenn es mit dem Ausbau von hochleistungsfähigen Breitbandnetzen nicht so rasend schnell vorangeht? Diese Fragen scheinen mir (öffentlich) zu wenig gestellt zu werden, sind aber für einen Ökonomen eigentlich ganz naheliegend.

Der politische Konsens scheint hingegen zu sein, dass wir möglichst viel möglichst schnell brauchen. Kaum einer scheint sagen zu wollen, dass es gar nicht so schlimm ist, wenn es etwas langsamer voran geht – aber warum eigentlich?

Nachdem die TK-Politik durch die TKG-Novelle im letzten Jahr, durch die Leitlinien der Europäischen Kommission zu staatlichen Beihilfen im Breitbandbereich, durch den Breitbandatlas des Bundeswirtschaftsministeriums und durch viele andere einzelne Maßnahmen die Angebotsbedingungen für den Breitbandausbau deutlich verbessert hat, zeigt sich nun immer deutlicher, dass der Take-up – also die Nachfrage – deutlich hinterherhinkt (siehe z. B. Folie 24 dieses Vortrags von Iris Henseler-Unger beim BREKO), selbst dort, wo hochleistungsfähige Breitbandangebote vorhanden sind.  Der fehlende Take-up zeigt sich nicht nur in Deutschland, sondern auch in anderen Ländern, die den Breitbandausbau forcieren, wie z.B. Neuseeland, wo ich im Januar und Februar zwei Monate an der Victoria University of Wellington war.

Friedhelm Dommermuth von der Bundesnetzagentur berichtete am Donnerstag auf dem 9. Düsseldorfer Informationsrechtstag von Erhebungen, wonach die zusätzliche Zahlungsbereitschaft für einen echten Breitbandanschluss bei etwa 5 Euro im Monat (im Durchschnitt) läge. Davon lässt sich ein Breitbandausbau schwer finanzieren. „Die Kosten für eine Vollerschließung der Bundesrepublik mit Glasfaseranschlüssen belaufen sich nach den Schätzungen des wik auf 70-80 Mrd. Euro. Die Kosten für den einzelnen Anschluss liegen zwischen 1.000 und 4.000 Euro,“ so Dr. Henseler-Unger in dem zitierten Vortrag (Folie 17).

Die Zahlungsbreitschaft ist zumindest momentan noch so gering, weil ja auch die Notwendigkeit für mehr Bandbreite bei vielen gar nicht da ist. Viele Menschen kommen auch ohne Internet-TV, Videos und Spiele per Internet ganz gut klar, und auch bei Cloud Computing gibt es für viele Nutzer noch viele offene Fragen. Noch fehlen die Anwendungen, die nicht nur die hohe Bandbreite erfordern, sondern auch tatsächlich nachgefragt werden. Denn auch die Wachstumsimpulse, die man sich von hochleistungsfähigem Breitband für die gesamte Volkswirtschafts erhofft, werden wohl weniger von Computerspielen und Entertainment-Produkten ausgehen als von Entwicklungen wie Cloud Computing un M2M-Kommunikation. Dafür benötigen wir aber nicht sofort ein flächendeckendes Angebot. Ist es also tragisch, wenn der Ausbau weniger schnell voranschreitet? Wohl eher nicht.

Wenn man ein Problem mit Geld nicht lösen kann, muss man es eben mit viel Geld lösen, lässt  Emir Kusturica einen seiner Protagonisten in „Schwarze Katze, weiße Kater“ (sinngemäß) sagen. Müssen wir aber mit viel Geld heute schon hochleistungsfähiges Breitband ausbauen, um ein Problem zu lösen, das heute fast keiner hat? Wenn der Markt aktuell noch nicht produziert, was auch noch fast keiner nachfragt, dann ist das nicht tragisch. Die Kosten für den Breitbandausbau werden weiter fallen, auch weil nun durch die Bundesnetzagentur Voraussetzungen für den Einsatz neuer Technologien wie Vectoring (die öffentliche Anhörung dazu war gerade am Mittwoch) geschaffen werden (dazu vieleicht demnächst mal mehr). Zugleich wird die Zahlungsbereitschaft steigen, wenn Anwendungen kommen, die wirklich vielen Leuten einen echten Zusatznutzen stiften. Im Cloud Computing sehe ich da echtes Potenziel. Ein nicht ganz so schneller Ausbau der Netze, der mit den Entwicklung der Applikationen Schritt hält, kann aber bis dahin durchaus sinnvoll sein, auch weil der Ausbau tendenziell günstiger werden wird.

Noch ein letzter Gedanke zum Schluss: Der Tod der Kupferdoppelader wird schon so lange progonostiziert wie ich mit Fragen der TK-Wirtschaftbeschäfige. Dann kam ISDN, dann DSL, nun Vectoring. Und auch die nächste innovation wird kommen, die das Kupfernetz doch noch einmal schneller macht. Warum? Weltweit haben unzählig TK-Unternehmen in der Vergangenheit Kupferleitungen vergraben – das sind jetzt echte Bodenschätze, die – ökonomisch gesprochen – immer weider gehoben werden können, wenn jemandem etwas einfällt, wie man das Netz doch nocht nutzen kann. Die Anreize etwas zu erfinden, was die Lebensdauer des Kupfernetzes verlängert, indem seine Leistungsfähgkeit erhöht wird, sind weltweit betrachtet einfach gigantisch. Und wo viel Geld verdient werden kann, wo ein großer Gewinn winkt, da fangen auch kreative Köpfe an nachzudenken, wie man daran kommen kann. Daher wird die nächste Innovation für das Kupfernetz mit Sicherheit kommen, sage ich als Ökonom (und nicht als Techniker).