DasHeimnetzwerk.de - informativ und umfassend

Die Auswirkungen von ChatGPT auf Websites

Seit fast einem Jahr ist generative KI mittels ChatGPT in aller Munde. Es erscheint nur eine Frage der Zeit zu sein, bis ChatGPT oder andere Chatbots den Suchmaschinen den Rang ablaufen. Es stellt sich die Frage, was das für Websites wie DasHeimnetzwerk.de bedeutet. Welche langfristigen Konsequenzen könnten sich für Websites aber auch für die Chatbots ergeben?

Die folgenden Abschnitte dieses Artikels sollen die Grundlagen erläutern und eine Antwort auf die obige Frage geben. Vorweg sei gesagt, dass natürlich vieles spekulativ ist. Niemand kann die Zukunft genau vorhersagen. Der Artikel soll aber Denkanstöße geben und Problemfelder aufzeigen.

  1. Wie funktioniert ChatGPT bzw. andere fortgeschrittene Chatbots?
  2. Können Chatbots den Besuch von Webseiten ersetzen?
  3. Was für Konsequenzen ergeben sich aus der Entwicklung von Chatbots für Websites?
  4. Was für Konsequenzen ergeben sich für Chatbots, wenn diese das Wissen von Websites akkumulieren?
  5. Welche Lösungsansätze gibt es?
  6. Anhang: Konversationsverläufe mit ChatGPT
Bild: Ein Portrait von ChatGPT
Bild: Ein Portrait von ChatGPT

Notiz: Das obige Bild wurde mit dem KI-Bildgenerator „Stable-Diffusion” erzeugt. Ein weiteres Beispiel für generative KI, aber nicht Thema dieses Artikels. Der Clou an diesem Bild ist, dass es von dem inspiriert wurde was ChatGPT-4 auf die Frage nach einer bildlichen Beschreibung seiner selbst geantwortet hat.

Wie funktioniert ChatGPT bzw. andere fortgeschrittene Chatbots?

Fortschrittliche generative Chatbots verwenden als Grundlage ein künstliches neuronales Netz (KNN). Die Neuronen sind in einer Art Matrix angeordnet. Jedes Neuron einer Spalte ist mit jedem Neuron der benachbarten Spalte über eine, sozusagen, Synapse verbunden. Die Anzahl der Synapsen in einem modernen KNN ging bereits mit ChatGPT-3 in die Milliarden (Quelle 1). Für ChatGPT-4 ist von einer deutlich höheren Zahl auszugehen.

Um ChatGPT Wissen „beizubringen”, wurde das KNN mit Lexika, Büchern und dem Inhalt von Webseiten trainiert. ChatGPT-3 verwendete dabei zu 60% Webseiten als Quelle (Quelle 1). Es ist davon auszugehen, dass sich dieses Verhältnis auch mit ChatGPT-4 nicht wesentlich geändert hat. Mit all diesen Quellen wurde ChatGPT Weltwissen vermittelt. Das bedeutet, dass ChatGPT zu fast allen existierenden Themen Informationen gespeichert hat und abrufen kann.

Damit ChatGPT und andere ChatBots besser mit dem Menschen interagieren, wurde nach dem Basistraining noch ein Feinschliff vorgenommen (Stichworte: finetuning, reinforcement learning). Dieser Feinschliff wurde teilweise von Menschen begleitet und bewertet, damit die Antworten besser den menschlichen Erwartungen und Werten entsprechen.

Was dabei in den ChatBots selbst abläuft, ist im Prinzip einfach nur eine statistische Vorhersage des nächsten auszugebenden Wortes. Nicht mehr und nicht weniger.

Das Ergebnis einer „simplen” statistischen Vorhersage ist für viele erstaunlich. Es ist möglich mit ChatGPT eine Konversation zu führen. Die Rechtschreibung und Grammatik der Ausgaben ist in der Regel korrekt, die Antworten erscheinen in der Regel plausibel und der Kontext der Konversation wird über die Ein- und Ausgaben hinweg erhalten. Dazu können auch sehr lange und ausgefeilte Eingaben, sogenannte „Prompts”, verwendet werden. Die Ausgaben können ebenfalls sehr detailliert und strukturiert sein.

Darüber hinaus sind die Antworten nicht nur plausibel, sondern bei den allgemeine Fragen auch überwiegend richtig. Dennoch ist Vorsicht geboten, da die Antworten auch Fehler enthalten können.

Nun kann man sich fragen: Was hat ChatGPT & co so effizient werden lassen?

Zum einen gab es Fortschritte in der Architektur der KIs. Ein wichtiges Stichwort ist hier die „Transformer-Architektur” (Quelle 2). Zum anderen ist es aber auch die reine Skalierung. Durch immer leistungsfähigere Prozessoren, insbesondere Grafikprozessoren, konnten die KI-Modelle immer größer und leistungsfähiger werden.

Wenn Chat-Bots schon heute so effizient sind, wie wird die Entwicklung in der Zukunft aussehen?

Hier können bereits heute gute Annahmen getroffen werden. Hintergrund ist, dass Prozessorschmieden wie AMD, Nvidia und Intel, aber auch andere, spezielle Prozessoren für KI entwickeln und produzieren. So hat Nvidia Anfang 2023 seine H100-KI-Chips auf den Markt gebracht, AMD und Intel werden mit eigenen Entwicklungen folgen. Mit jeder weiteren Generation dieser Chips dürfte sich die Leistungsfähigkeit von KIs weiter steigern.

Und da die Skalierung einer der entscheidenden Faktoren für die Leistungsfähigkeit von generativer KI wie Chatbots ist, ist zu erwarten, dass zukünftige Versionen von z.B. ChatGPT immer besser werden.

Notiz: Der Begriff „generativ” wurde schon mehrfach verwendet, aber noch nicht erklärt. „Generativ” im Zusammenhang mit KI bedeutet einfach ausgedrückt, dass eine KI Daten neu generiert. Neu in dem Sinne, dass verschiedene vorhandene Daten, die im Modell der KI hinterlegt sind, so zusammengesetzt werden, dass etwas entsteht, was in den Trainingsdaten so nicht vorhanden ist. Neben der „generativen” KI gibt es noch „diskriminative” KI. Letztere nimmt Eingabedaten entgegen, versucht darin enthaltene Muster zu erkennen und diese einer vorher definierten Menge von Ergebnissen zuzuordnen. Ein einfaches Beispiel ist eine Zahlenerkennung, bei der als Eingabedaten Bilder mit Zahlen verwendet werden und als Ergebnis die erkannte Zahlen von 0 bis 9 ausgegeben werden.

Können Chatbots den Besuch von Webseiten ersetzen?

Um diese Frage zu beantworten, mache ich einen kleinen Test. Ich stelle dem ChatBot ChatGPT-4 Fragen zu drei Themenkomplexen, die ich auf meiner Website behandle. Eine zu dem Allerweltsthema „Ping” (Paketumlaufzeit) (Quelle 4), eine allgemeine Frage zum Thema „WLAN-Mesh” (Quelle 5), und Fragen zum exotischeren Thema „Übertragung von Daten über ein Telefonkabel” (Quelle 6).

Mich interessiert, wie gut die Antworten sind, ob Quellen für die Antworten genannt werden und ob ich Rückschlüsse ziehen kann ob die Daten meiner Website in ChatGPT-4 eingeflossen sind?

Den Chat-Verlauf und eine genauere Analyse für die einzelnen Themenkomplexe können Sie im Anhang nachlesen.

Denn Antworten zu allen Themen ist gemeinsam, dass sie plausibel klingen. Bei einer Antwort ist der Sprachstil etwas holprig und ChatGPT-4 wiederholt sich. Die einfachen Fragen zum Thema „Ping” konnten recht gut beantwortet werden. Beim Thema „WLAN-Mesh” gab es ein paar Falschinformationen, die von Personen welche nicht so tief mit der Thematik behaftet sind, wohl eher nicht erkannt werden. Die Antworten zum Thema „Übertragung von Daten über ein Telefonkabel” waren nicht falsch, ließen aber wesentliches aus.

Zu allen Antworten wurden wie im Prompt gefordert Quellenangaben gemacht. Darunter war auch die Website „DasHeimnetzwerk.de”. ChatGPT-4 wurde also auch mit den Daten meiner Website trainiert.

Allen Antworten gemeinsam ist, dass nach meiner Einschätzung die Mehrheit der Benutzer mit den Antworten zufrieden sein dürfte. Der schlichte Grund: Man weiß es nicht besser und die Antworten erscheinen soweit plausibel. Fehler oder Auslassungen werden eher nicht erkannt.

Ich vermute ferner, dass auch die genannten Quellen wenig bis gar nicht konsultiert werden. Das kostet Zeit und Mühe und wenn die Antwort soweit in Ordnung klingt, erspart man sich meist weitere Recherchen.

Ich komme also zu dem Schluss, das Chatbots den Besuch von Webseiten ersetzen können und dies in sehr kleinem Umfang wahrscheinlich auch schon tun. Stand heute, allerdings noch nicht vollständig. Wer wirklich fundierte Informationen sucht, benutzt einen Chatbot nur zur Inspiration, recherchiert aber noch selbst.

Ich vermute jedoch, dass sich diese Aussage mit der Zeit durch die stete Weiterentwicklung von Chatbots immer mehr relativieren wird. Je besser die Qualität der Antworten, desto mehr werden sich die Benutzer auf diese verlassen, desto weniger werden die klassischen Websites besucht.

Was für Konsequenzen ergeben sich aus der Entwicklung von Chatbots für Websites?

Wie bereits im vorherigen Abschnitt angedeutet, werden die Besucherzahlen von Websites zurückgehen. Dies dürfte eher auf Websites zutreffen, die Wissen vermitteln, als auf Blogs und Websites, welche von Ihrer Aktualität leben. Der Grund für die Annahme ist, dass schon heute die Benutzer Quellen wenig Beachtung schenken. Als ein starkes Indiz kann ich eine Einzelbeobachtung anführen, meine Webseite über „WLAN-Mesh” (Quelle 5). Diese wird im Wikipedia-Artikel über WLAN-Mesh als Quelle geführt. Die Wikipedia-Seite wird ca. 4000 mal pro Monat aufgerufen, davon kommen dann ca. 20 Besucher auf meine Webseite.

Weniger Besucher bedeuten für die meisten Websites weniger Einnahmen. Sei es, dass die Werbeeinnahmen sinken oder dass ein eigenes Produkt weniger Beachtung findet, welches über die Website offeriert wird. Für andere Websites bedeuten weniger Besucher, weniger Aufmerksamkeit, weniger Feedback, weniger Anerkennung. In beiden Fällen ist es eine berechtigte Annahme, dass die Bereitschaft zur Erstellung und Pflege solcher sinkt.

Nun gibt es Argumente, dass gerade von Menschen kuratierte Websites in Zukunft mehr Zuspruch finden werden, da die Qualität und auch die Erstellung durch einen Menschen geschätzt wird. Ich selbst stehe diesem Argumente sehr skeptisch gegenüber. Der Grund ist einfach meine eigene Erfahrung. Die Website „DasHeimnetzwerk.de” hat viele Eigenschaften, welche meines Erachtens wünschenswert und in dieser Kombination eher selten zu finden sind. Eine, wie ich finde, hohe Qualität der Inhalte, keine Werbung, keine Verwendung von Cookies, ehrenamtlicher Betrieb. Die Resonanz war und ist allerdings überschaubar. Es gibt wenig Grund zu der Annahme, dass sich das mit der Verbreitung von Chatbots ändern wird, im Gegenteil.

Eine weitere Frage ist, ob man als Betreiber einer Website möchte, dass die Daten in KI-Modelle einfließen. Diese Frage ist sehr individuell zu beantworten. Für Blogs und Websites die von der Häufigkeit und Aktualität Ihrer Inhalte leben, dürfte es ziemlich gleich sein, da das Training von KI-Modellen Zeit braucht und die entsprechenden Daten zum Zeitpunkt der Veröffentlichung des Modells meist veraltet sind. Bei anderen Websites stellt sich die Frage nach der Motivation. Möchte man die Informationen als solche verbreiten, gleich über welchen Kanal und damit leben, dass man selbst als Urheber nicht in Erscheinung tritt, dann kann es zielführend sein, dass sich KI-Modelle diese Informationen aneignen. Möchte man aber vielleicht doch als Urheber erkannt werden, darüber Anerkennung finden und vielleicht auch etwas Geld verdienen, dann könnte es ratsam sein, den KI-Modellen die Nutzung der Website-Daten zu untersagen. Und ein weiterer Aspekt, den es zu bedenken gilt, ist, ob man die Konzentration von Marktmacht auf wenige große Unternehmen fördern möchte.

Notiz: Nach der derzeitiger Rechtslage in der EU dürfen frei zugängliche Werke für das Training von KI-Modellen verwendet werden (Quelle 8). Es besteht jedoch die Möglichkeit dies explizit zu untersagen. Wie man die Nutzung z.B. einer Website für das Training eines KI-Modells untersagt weden kann, ist jedoch nicht hunderprozentig geregelt.

Zusammenfassend ist es eine realistische Prognose, dass die Qualität der Inhalte von Websites abnehmen wird. Gerade wenn der Aufwand für die Erstellung der Inhalte sehr hoch ist, dürfte die Bereitschaft sinken entsprechende Seiten ins Netz zu stellen. Eine weitere realistische Prognose ist, dass Websites Ihre Inhalte zunehmend aus den Chatbots selbst beziehen, um Kosten zu sparen. Ferner werden einige versuchen durch ein Mehr an Inhalten, den Verlust von Besuchern an anderer Stelle auszugleichen.

Was für Konsequenzen ergeben sich für Chatbots, wenn diese das Wissen von Websites akkumulieren?

ChatGPT-3 wurde zu 60% mit Daten von Webseiten trainiert (Quelle 1). Gerade wenn man bedenkt, wie vielfältig die Inhalte im Internet sind, dann liegt der Schluss nahe, dass ein beträchtlicher Teil der „Intelligenz” von Webseiten stammt. Wenn nun die Qualität der Inhalte von Webseiten im Internet sinkt, dann sinkt zwangsläufig auch die Qualität der Antworten von Chatbots.

Darüber hinaus hat das Internet anderen Medien ebenfalls nicht gut getan. SSo lässt sich für den deutschen Buchmarkt um das Jahr 2000 ein Umsatz von ca. 9 Mrd. € ermitteln (Quelle 9). Für das Jahr 2022 lag der Umsatz ca. 9,4 Mrd. € (Quelle 10). Dies bedeutet im Prinzip eine Stagnation seit mehr als 20 Jahren. Bei steigenden Buchpreisen bedeutet dies letztlich, dass weniger Bücher verkauft und verlegt werden. Für den Zeitschriftenmarkt gilt dies noch drastischer.

Last but not least hat sich ChatGPT bei Wikipedia als Quelle bedient. Die Zahl der Autoren, die aktiv zu Wikipedia beitragen, ist jedoch seit vielen Jahren rückläufig. Die Verbreitung von Chatbots dürfte diesen Trend nicht umkehren, eher im Gegenteil. Wikipedia steht bereits heute vor dem Problem, wie die bestehende Wissensbasis gepflegt und aktuell gehalten werden kann.

Nun ist noch zu berücksichtigen, dass der enorme Aufwand für das Training von ChatGPT, aber auch der entsprechenden Modelle von Alphabet oder Meta, weitestgehend über Automatismen erfolgt. Der Einsatz menschlicher Arbeitskraft wurde soweit wie möglich auf ein Minimum reduziert. Sprich Chatbots, welche Weltwissen anbieten, sind auf externe Inhalte angewiesen.

Zusammenfassend lässt sich sagen, das ChatGPT & Co langfristig, vielleicht sogar schon mittelfristig, ein Problem haben dürften. Es ist wahrscheinlich, dass die Wissensquellen in Zukunft nicht mehr so üppig sprudeln oder gar versiegen werden. Und ohne umfassende, qualitativ hochwertige Quellen, kann man keine umfassenden und qualitativ hochwertigen Chatbots entwickeln.

Welche Lösungsansätze gibt es?

Man könnte nun zu dem Schluss kommen, dass die Konzerne welche hinter ChatGPT (OpenAI/Microsoft), Bard (Alphabet), Llama (Meta) stehen reagieren und Mechanismen einführen, um die Anbieter von Wissen direkt oder indirekt an der Nutzung per Chatbot teilhaben zu lassen. Bis zu einem gewissen Grad könnte dies der Fall. Schon heute spenden IT-Giganten wie Amazon Millionenbeträge an Wikipedia (Quelle 13). Ich halte es nur für unglaubwürdig, dass dies in dem benötigten Umfang geschieht. Warum? Weil es deutlich mehr Geld und Aufwand kosten dürfte, wenn man z.B. den Trend bezüglich Wikipedia-Autoren umkehren möchte. Und das wäre nur Wikipedia und nicht das weltweite Internet, mit all seinen Webseiten in jedweder Colour. Außerdem sind die meisten Unternehmen gewinnorientiert und versuchen, ihre Ausgaben so gering wie möglich zu halten.

Man könnte auch auf die Idee kommen, dass sich aus der prognostizierte Entwicklung Chancen ergeben. Und das wird so sein, es war schon immer so, dass Probleme auch Chancen bedeuten. So könnte eine weltweite Community ihr eigenes KI-Modell erstellen und pflegen. Durch Ausschluss der Quellen für kommerzielle Chatbots, könnte langfristig ein KI-Modell entstehen, dessen Qualität andere in den Schatten stellt. Darüber wiederum könnte es eine wichtige Rolle spielen, um den KI-Modellen der großen Konzerne zumindest etwas entgegenzusetzen. Doch die Probleme eines solchen Vorhabens sind mannigfaltig, als Beispiele seien die Finanzierung, aber auch der immense organisatorische Aufwand genannt.

Erwähnenswert dabei ist, dass das KI-Modell Llama von Meta als Open-Source zur Verfügung gestellt wird (Quelle 12). Dieses Modell wird heute schon gerne für andere Open-Source Projekte als Basis genommen. Ob dieser Ansatz eine Zukunft hat wird sich zeigen, den auch OpenAI hat mal als Non-Profit-Organisation angefangen, sich aber mittlerweile zu einem profitorientierten Unternehmen gewandelt hat. Und so kann es sein, dass der Open-Source Ansatz eventuell nur dazu dient Marktanteile zu gewinnen, um bei einer akzeptablen Marktdurchdringung Llama in Closed-Source zu überführen.

Ein anderer Ansatz ist, dass die Benutzer selbst einen Gegenpol bilden und von Menschen erstellte und kuratierte Inhalte besonders wertschätzen, auch monetär. Da dies in der Vergangenheit trotz verschiedener Ansätze kaum geschehen ist, besteht wenig Hoffnung, dass sich dies in Zukunft in größerem Umfang ändern wird.

Ein weiterer Weg wäre es, dass Regierungen Non-Profit-Organisationen massiv subventionieren, die Ihre Ergebnisse und Produkte der Allgemeinheit frei zur Verfügung stellen. Dass man Wikipedia, aber auch Inhalte im Web als Infrastruktur begreift, die es zu erhalten und zu fördern gilt, in Zukunft mehr denn je. Dieser Ansatz hätte viel für sich, aber auch seine Schwächen. Einen solchen Ansatz weiter auszuführen würde locker einen oder mehrere weitere Artikel füllen, von daher belasse ich es bei dem Gedanken an sich.

Eigentlich fast alle komplexeren Vorgänge sind nicht schwarz-weiß zu betrachten, so auch der Vorgang der Entwicklung von generativen KI-Modellen, deren Verbreitung und die daraus resultierenden Folgen. Somit ist es am wahrscheinlichsten das eine Mischung aus obig genannten Ansätzen am vielversprechendsten ist, um die Vielfalt des Internets und die dort enthaltenen Wissensquellen wenigstens zu einem gewissen Teil zu bewahren. Auch um die Qualität der Chatbots und damit ihren Nutzen langfristig zu erhalten bzw. zu verbessern.

Die erste Hürde ist wohl erst einmal das Bewusstsein dafür zu schaffen, dass ein Problem existiert. Denn wo kein Problem gesehen wird, besteht auch keine Notwendigkeit, es zu lösen.

Matthias (26.07.2023)

Quellen:

[1] https://en.wikipedia.org/wiki/GPT-3#GPT-3_models
[2] https://en.wikipedia.org/wiki/Transformer_(machine_learning_model)
[3] https://www.cnbc.com/2023/04/14/nvidias-h100-ai-chips-selling-for-more-than-40000-on-ebay.html
[4] https://dasheimnetzwerk.de/Lexikon/Tools/Eintrag_Ping_Basic.html
[5] https://dasheimnetzwerk.de/Lexikon/Netzwerkkonzepte/Eintrag_Mesh_WLAN.html
[6] https://dasheimnetzwerk.de/Lexikon/Uebertragungsmedien/Ethernet/Eintrag_Ethernet_TelefonKabel.html
[7[ https://de.wikipedia.org/wiki/Mesh-WLAN
[8] C’t ChatGPT & co, 2023, Seite 17
[9] https://www.ifo.de/DocDL/ifosd_2003_24_5.pdf
[10] https://www.boersenverein.de/markt-daten/marktforschung/wirtschaftszahlen/
[11] https://netzpolitik.org/2022/wikipedia-neue-features-werden-probleme-nicht-loesen/
[12] https://www.golem.de/news/unternehmenskunden-meta-stellt-ki-sprachmodell-llama-2-kostenfrei-bereit-2307-175972.html
[13] https://www.sueddeutsche.de/digital/wikipedia-spenden-google-amazon-1.4333588

Anhang

Konversationsverlauf ChatGPT-4 (integriert unter Bing): Verwendung eines Telefonkabels für eine Datenverbindung (Quelle 4)

Frage

Ich möchte eine zuverlässigere Netzwerkverbindung von meinem Router zu meinem PC erstellen. Ein vieradriges Telefonkabel existiert zwischen dem Router und dem PC. Kann ich das Telefonkabel für eine Datenverbindung verwenden. Erkläre mir wenn ja, warum? Erkläre mir wenn ja, wie? Und gebe bitte Deine Quellen an, welche Du für Deine Antwort verwendet hast.

Antwort

Telefonkabel können theoretisch als Ethernetkabel genutzt werden, haben jedoch wesentlich schlechtere Übertragungseigenschaften. Die maximalen Entfernungen und Datenraten eines genormten Netzwerkkabels lassen sich mit einem normalen Telefonkabel niemals erreichen. Eine vorhandene Telefonleitung kann jedoch zur gleichzeitigen Übertragung von Telefon und Ethernet (bis 100MBit) genutzt werden, indem ein VDSL2-Konverter an beiden Enden der Leitung angeschlossen wird1.

Ein 100 Mbit/s-Netzwerkkabel muss bestimmte Eigenschaften aufweisen. Das Kabel besitzt mindestens vier Adern, die miteinander verdrillt und abgeschirmt sind, und hat einen definierten Wellenwiderstand. Werden die Anforderungen eingehalten, sind Vollduplex-Übertragungen mit 100 Megabit pro Sekunde über Entfernungen von bis zu 100 Metern problemlos möglich. Herkömmliche Telefonkabel können zwar auch bis zu acht Adern besitzen, allerdings sind diese weder passend geschirmt noch in der geeigneten Weise verdrillt. Auch der Wellenwiderstand entspricht nicht dem eines richtigen Netzwerkkabels. Sie können zwar theoretisch das Telefonkabel wie ein normales Ethernetkabel beschalten und nutzen, doch hat es wesentlich schlechtere Übertragungseigenschaften. Die maximalen Entfernungen und Datenraten eines genormten Netzwerkkabels lassen sich mit einem normalen Telefonkabel niemals erreichen1.

Notiz: Als eine Quelle wurde DasHeimnetzwerk.de genannt.

Frage

Welche Datenraten kann ich den mit einem vieradringen Telefonkabel erreichen? Bitte gebe die Quellen für Deine Antwort mit an.

Antwort

Ein Telefonkabel kann theoretisch als Ethernetkabel genutzt werden, jedoch haben Telefonkabel wesentlich schlechtere Übertragungseigenschaften als genormte Netzwerkkabel. Die maximalen Entfernungen und Datenraten eines genormten Netzwerkkabels lassen sich mit einem normalen Telefonkabel niemals erreichen1.

Ein 100 Mbit/s-Netzwerkkabel muss bestimmte Eigenschaften aufweisen. Das Kabel besitzt mindestens vier Adern, die miteinander verdrillt und abgeschirmt sind, und hat einen definierten Wellenwiderstand. Werden die Anforderungen eingehalten, sind Vollduplex-Übertragungen mit 100 Megabit pro Sekunde über Entfernungen von bis zu 100 Metern problemlos möglich1.

Ich konnte keine spezifischen Datenraten für ein vieradriges Telefonkabel finden. Jedoch können Sie eine vorhandene Telefonleitung zur gleichzeitigen Übertragung von Telefon und Ethernet (bis 100MBit) nutzen, indem ein VDSL2-Konverter an beiden Enden der Leitung angeschlossen wird1.

Ich hoffe das hilft dir weiter!🙂

Frage

Kannst Du mir konkrete, verfügbare VDSL-2 Konverter Produkte benennen?

Anwort

Es gibt viele VDSL2-Konverter-Produkte auf dem Markt. Hier sind einige Beispiele von VDSL2-Konverter-Produkten:

NV-202 von KTI Distributions GmbH1 NV-720R von BR Network Solutions GmbH

Notiz: Das benannte Produkt ist der VC-231G Converter von Planet. Dieses stellt in der Tat eine potentielle Lösung dar (bis ca. 150Mbit/s symmetrisch, Quelle (https://www.planet.com.tw/en/product/vc-231g))

Analyse der Antworten

Die Antworten erscheinen auf den ersten Blick plausibel. Die Information in den Antworten wiederholt sich teilweise. Die Einschätzung “niemals” ist fehl am Platz und sollte durch “wahrscheinlich” ersetzt werden. Ein absolut wesentlicher Punkt wurde nicht erwähnt und zwar das 100Mbit/s und mit 8 Adern sogar 1000Mbit/s über kurze Distanzen sehr realistisch machbar sind. Die empfohlenen Produkte können eine Lösung sein, sind aber nicht die Leistungsfähigsten. So wurden z.B. Produkte nach G.hn nicht gelistet.

Ein technischer Laie dürfte die Antwort als ausreichend empfinden und einen entsprechenden VDSL-2 Konverter erwerben.

Konversationsverlauf ChatGPT-4 (integriert unter Bing): “Ping” (Quelle 5)

Frage

Erkläre mir bitte was Ping in Zusammenhang mit dem Internet ist? Bitte gebe die Quellen für Deine Antwort mit an.

Antwort

Ping ist ein Werkzeug, mit dem überprüft werden kann, ob ein bestimmter Server erreichbar ist. Die in Millisekunden gemessene Zeitspanne gibt an, wie viel Zeit ein Datenpaket bei der Übertragung zu einem Server hin und wieder zurück benötigt. Im Gegensatz zur Download- und Upload-Geschwindigkeit ist beim Ping ein niedriger Wert besser als ein hoher.

Frage

Warum ist ein niedriger Ping Wert besser als ein hoher? Bitte gebe die Quellen für Deine Antwort mit an.

Antwort

Ein niedriger Ping ist besser als ein hoher Ping. Ein niedriger Ping bedeutet, dass die Datenübertragung deiner Internetverbindung schneller ist. Je höher der Ping, desto mehr Zeit wird benötigt, ein Datenpaket zum Server und wieder zurück zum Computer zu schicken. Ein niedriger Ping ist also wichtig, damit aufwendige Anwendungen wie Spiele oder Echtzeit-Videotelefonate flüssig laufen

Frage

Wie kann ich den Ping Wert meiner Datenübertragungen optimieren? Bitte gebe die Quellen für Deine Antwort mit an.

Antwort

Es gibt verschiedene Möglichkeiten, den Ping zu optimieren und die sogenannte Latenzzeit zu senken. Hier sind einige Tipps:

Beenden Sie alle Programme, die im Hintergrund Ihre Internet-Leitung beanspruchen. Dazu zählen Musik-Streaming-Dienste wie Spotify oder auch Dienste wie Netflix, Twitch oder Prime Video. Überprüfen Sie auch, ob gerade Daten - wie Spiele-Updates im Stream oder eine Windows Aktualisierung - geladen wird. Ist dies der Fall, sollten Sie die Downloads fertigstellen oder anhalten und zu einem späteren Zeitpunkt fortsetzen. Manchmal hilft auch ein Neustart des Routers. Eine weitere Möglichkeit, den Ping zu verbessern, ist das Einrichten einer neuen Einstellung in der Registry.

Frage

Gibt es noch andere Möglichkeiten meinen Ping Wert zu optimieren? Bitte gebe die Quellen für Deine Antwort mit an.

Antwort

Ja, es gibt noch weitere Möglichkeiten, den Ping zu optimieren. Hier sind einige weitere Tipps:

Verwenden Sie ein Ethernet-Kabel anstelle von WLAN. Schließen Sie alle anderen Geräte an Ihrem Netzwerk ab. Verwenden Sie einen anderen DNS-Server.

Analyse der Antworten

Eine inhaltlich durchaus brauchbare Antwort. Für Online-Gamer wäre es noch wichtig zu wissen, dass der Ping auch die Reaktionszeit für eigene Aktionen beeinflusst und ein hoher Ping sogenannte Lags verursachen kann. Weitere möglich Optimierungen wie eine schnellere Internetverbindung als solche oder kein Power-Line zu verwenden wurden nicht genannt. Ebenfalls nicht die einfache Möglichkeit die gewünschte Anwendung oder das gewünschte Gerät im heimischen Router zu priorisieren und damit dem entsprechenden Datenverkehr Vorrang zu gewähren.

Ein technischer Laie dürfte die Antwort als ausreichend empfinden. Die Optimierungen allerdings nur wenn diese wirklich Besserung schaffen.

Konversationsverlauf ChatGPT-4 (integriert unter Bing): “WLAN-Mesh” (Quelle 6)

Frage

Erkläre mir bitte was ein WLAN-Mesh ist und welche besonderen Eigenschaften ein WLAN-Mesh gegenüber einem normalen WLAN aufweist. Bitte gebe die Quellen für Deine Antwort mit an.

Antwort

Ein WLAN-Mesh ist ein eigenes Funknetzwerk, bei dem mehrere Access Points oder Router unter einem gemeinsamen Netzwerknamen erreichbar sind. Die Geräte verbinden sich untereinander per WLAN und können automatisch die beste Frequenz und Signalqualität wählen. Ein WLAN-Mesh läuft statt des normalen WLAN, das im Router abgeschaltet wird, und hat einen anderen IP-Bereich.

Ein WLAN Mesh zeichnet sich durch folgende positive Eigenschaften aus:

Hohe Empfangsabdeckung, die sich durch weitere Stationen einfach erweitern lässt. Nur geringe Verluste beim Datendurchsatz. Gleicher WLAN-Netzwerkname (SSID) bei allen Mesh Access Points für alle Endgeräte.

Notiz: Als eine Quelle wurde DasHeimnetzwerk.de genannt.

Analyse der Antworten

Auch hier wieder auf den ersten Blick eine plausible Antwort. Teile davon sind jedoch schlicht falsch. So wird das “normale” WLAN nicht abgeschaltet. Jeder Router, Repeater stellt weiter eine normale WLAN-Funkzelle bereit. Nur sprechen sich, sozusagen, die WLAN-Funkzellen untereinander besser ab. Und das ein WLAN-Mesh einen eigenen IP-Adressbereich unterhält ist ebenfalls in der Regel falsch. Diese Information kann bei etwas Unkenntnis, sogar zu Fehlkonfigurationen und folgend Fehlfunktionen führen.

Aber ich vermute, wie bei den Antworten zu den anderen beiden Themengebieten, ein technischer Laie wäre wahrscheinlich erst einmal mit den Informationen zufrieden.