26. August 2023 13:00

Inflationsmessungen Qualitätsveränderungen als Problem

Über Verzerrungen nach oben – und vermehrt nach unten

von Karl-Friedrich Israel

von Karl-Friedrich Israel drucken

Artikelbild
Bildquelle: frantic00 / Shutterstock Schleichender Kaufkraftverlust: Durch schlechtere Produkte und Dienstleistungen – wie hier mit der Selbstbedienungskasse im Supermarkt

Eine der wichtigsten Quellen für Verzerrungen in der Inflationsmessung sind neben den Substitutionseffekten im Konsumverhalten die Qualitätsveränderungen bei Gütern und Dienstleistungen. Qualitätsveränderungen sind subjektiv. Für den einen ist zum Beispiel der Übergang zu Selbstbedienung und Self-Checkouts ein Segen. Man spart Zeit, zumindest wenn man weiß, wie man die Automaten bedient, und muss mit niemanden mehr kommunizieren, wenn man es nicht möchte. Für andere ist es eine Zumutung und ein klares Indiz dafür, dass die Qualität der Dienstleistungen in vielen Bereichen gesunken ist.

Trotz dieses grundsätzlichen Problems versucht man Qualitätsveränderungen möglichst objektiv zu fassen und in die Inflationsmessung aufzunehmen. Einen entscheidenden Anstoß für explizite Qualitätsanpassungen lieferten die Ergebnisse der amerikanischen Boskin-Kommission Mitte der 1990er Jahre. Man argumentierte, dass die Inflation zu hoch eingeschätzt werde, weil man die zahlreichen qualitativen Verbesserungen nicht hinreichend berücksichtige. Die Kommission schätzte den Messfehler auf etwa einen halben Prozentpunkt pro Jahr.

Seither haben sich explizite Qualitätsanpassungen in der Inflationsmessung immer mehr durchgesetzt. In der Fachliteratur werden vielfach die sogenannten hedonischen Qualitätsanpassungen diskutiert, bei denen der Geldwert einer Qualitätsänderung in einer Regressionsanalyse geschätzt wird.

Stellen Sie sich einen Computer vor, der eine Rechenleistung von drei Gigahertz hat und zum Ladenpreis von 500 Euro zu haben ist. Das Nachfolgemodell löst den alten Computer ab. Es kostet 600 Euro, hat aber eine Rechenleistung von 3,5 Gigahertz. Das ist für die meisten Nutzer eine Qualitätsverbesserung. Sonst würden sie im Durchschnitt nicht mehr Geld für rechenstärkere Computer zahlen.   

Der reine Preisanstieg vom alten zum neuen Modell beträgt in unserem Beispiel 20 Prozent. Aber man bezahlt 20 Prozent mehr für ein besseres Produkt, also ist die eigentliche Teuerungsrate geringer. Die Statistiker stellen sich nun die Frage, wie viel ein Anstieg in der Rechenleistung von drei auf 3,5 Gigahertz wert ist. Sie schätzen den durchschnittlichen Geldwert dieser Verbesserung über eine Palette ähnlicher Produkte wie anderen Computern, Laptops, Tablets et cetera und evaluieren, um wie viel Computer im Durchschnitt teurer sind, wenn sie 0,5 Gigahertz mehr Rechenleistung haben. Vielleicht kommen sie zu dem Ergebnis, dass der durchschnittliche Geldwert bei 80 Euro liegt. In diesem Fall würde man nicht einfach den Ladenpreis des neuen Modells von 600 Euro in die Statistik aufnehmen, sondern den angepassten beziehungsweise qualitätsbereinigten Preis von 520 Euro. Damit ergibt sich eine Teuerungsrate von lediglich vier statt 20 Prozent.

Auch mit einer formalen Vorgehensweise wie der Regressionsanalyse ist keine Objektivität gewährt. Aber selbst wenn man annimmt, dass der Geldwert von Qualitätsveränderungen richtig eingeschätzt wird, ist dieses Vorgehen immer noch aus mindestens zweierlei praktischen Gründen problematisch.

Zum einen haben qualitativ hochwertige Produkte bereits einen von der expliziten Qualitätsbereinigung unabhängigen preissenkenden Effekt. Kommt ein neues qualitativ hochwertiges Produkt auf den Markt, drückt es in der Regel die Preise der minderwertigen Konkurrenzprodukte, die ebenfalls im Index enthalten sind. Als Apple im Jahr 2007 das iPhone auf den Markt brachte, hat sich ein erheblicher Teil der Marktnachfrage von herkömmlichen Mobiltelefonen und Digitalkameras auf das iPhone verschoben. Die Konkurrenzunternehmen konnten den Absatz ihrer Produkte nur durch erhebliche Preissenkungen gewährleisten. Somit drücken Produktinnovationen über das Substitutionsverhalten der Konsumenten bereits den Inflationsindex nach unten, ohne dass man explizit die Preise anpasst. Senkt man den beobachteten Ladenpreis zusätzlich, besteht die Gefahr, dass man über das Ziel hinausschießt und die Preisinflation unterschätzt.

Zum anderen gibt es eine Verzerrung in der Wahrnehmung von Qualitätsänderungen. Wenn Apple ein schnelleres MacBook oder ein iPhone mit besserer Kamera auf den Markt bringt, wird die ganze Welt darüber informiert. Eine Qualitätsverbesserung wird vom Hersteller aktiv kommuniziert. Zudem sind sie sehr oft quantitativ messbar – in Gigahertz oder Pixel – und können daher in einer Regressionsanalyse relativ einfach berücksichtigt werden.

Aber natürlich gibt es bei zahlreichen Produkten auch Qualitätsverschlechterungen. Diese werden von den Herstellern allerdings kaschiert. Kein Produzent hat ein Interesse daran, seine potenziellen Käufer darüber aufzuklären, dass am Gehäuse oder der Verkabelung des neuen Computermodells minderwertige Kunststoffe verwendet werden. Wenn der Rechner dann nur noch zwei statt fünf Jahre reibungslos funktioniert, wird dies in der Statistik nicht berücksichtigt. Die Preise werden nicht entsprechend nach oben korrigiert.

Qualitätsverbesserungen, die mit der expliziten Preisanpassung zu einer niedrigeren ausgewiesenen Inflationsrate führen, werden also eher berücksichtigt als Qualitätsverschlechterungen, die zu höheren offiziellen Inflationsraten führen würden. Daher ist es wahrscheinlich, dass man mit den immer weiter verbreiteten expliziten Qualitätsanpassungen eine Verzerrung verursacht, die dazu führt, dass die Preisinflation zu niedrig eingeschätzt wird.

Wenn es in der Inflationsmessung jemals eine Verzerrung nach oben gegeben hat, wie sie die Boskin-Kommission entdeckt zu haben glaubte, dann könnte sie sich jetzt in eine Verzerrung nach unten verwandelt haben. Natürlich kann diese Frage niemals abschließend geklärt werden. Aber es wäre sicherlich aufschlussreich zu erfahren, wie groß der Einfluss expliziter Qualitätsanpassungen insgesamt ist. Leider gibt es hierüber keinen Aufschluss, denn das dafür nötige Datenmaterial wird von den Behörden nicht zur Verfügung gestellt. Selbst die zuständigen statistischen Ämter können nach eigenen Angaben den Gesamteffekt von Qualitätsanpassungen nicht berechnen, denn auch ihnen fehle dazu das entsprechende Datenmaterial. Öffentlich zugänglich sind nur die bereinigten Preise nach Qualitätsanpassung, aber nicht die verwendeten Rohdaten.

In der offiziellen Inflationsmessung ist man offensichtlich nicht um Transparenz bemüht. Es wäre viel gewonnen, wenn sowohl die beobachteten Rohdaten als auch die qualitätsbereinigten Daten mit allen sich über die Zeit ändernden Gewichtungen der Öffentlichkeit und der Forschungsgemeinschaft zur Verfügung gestellt würden. Wenn die erhobenen Preisdaten gewissenhaft für die Inflationsmessung verwendet werden – wovon wir alle ausgehen –, dann existieren sie irgendwo in aufgearbeiteter Form. In Zeiten von Digitalisierung und Big Data sollte eine Veröffentlichung der Daten kein unüberbrückbares Problem darstellen.


Sie schätzen diesen Artikel? Die Freiheitsfunken sollen auch in Zukunft frei zugänglich erscheinen und immer heller und breiter sprühen. Die Sichtbarkeit ohne Bezahlschranken ist uns wichtig. Deshalb sind wir auf Ihre Hilfe angewiesen. Freiheit gibt es nicht geschenkt. Bitte unterstützen Sie unsere Arbeit.

PayPal Überweisung Bitcoin und Monero


Kennen Sie schon unseren Newsletter? Hier geht es zur Anmeldung.

Artikel bewerten

Artikel teilen

Kommentare

Die Kommentarfunktion (lesen und schreiben) steht exklusiv nur registrierten Benutzern zur Verfügung.

Wenn Sie bereits ein Benutzerkonto haben, melden Sie sich bitte an. Wenn Sie noch kein Benutzerkonto haben, können Sie sich mit dem Registrierungsformular ein kostenloses Konto erstellen.