Es ist doch auch so das: wenn ein Röhrenverstärker in der Aufnahme benutzt wurde, kann der Transistor dies nicht genau so wiedergeben wie z.b der Gitarrist mit einem Röhrenverstärker das gespielt hat. Da die K2 Verzzerungen nicht von dem Transistor wiedergegeben werden kann. Also klingt das in der Wiedergabe mit einem Transistor auch anders und wenn der Transistor nicht linear arbeitet, kann er die K2-Verzerrungen möglicherweise nicht korrekt darstellen.
Ob der Künstler das will, glaube ich daher nicht so wirklich.
Doch, kann er. Denn ein neutraler Hifi-Verstärker fügt dem Signal nichts hinzu und entzieht ihm auch nichts. Er verhält sich wie ein Fensterglas, durch das du hindurch schaust. Sind instrumentenbezogene K2-Verzerrungungen bereits auf der Aufnahme drauf, lässt er die auch durch.
Stell dir mal vor das könnte er nicht, wären Alben wie die von AC/DC erst gar nicht reproduzierbar. Schließlich basieren Gitarrenverzerrer ebenfalls auf K2-Verzerrungen. Nur arbeiten die nicht mit Werten wie ein Röhrenverstärker um die 0,5 oder 1%, sondern rangieren in einer brachialen Größenordnung von über 60%.
Aber zurück zum von dir beschriebenen Szenario: Was bei einer solchen Aufnahme passiert, wenn du über einen Röhrenverstärker abhörst: Du verdoppelst den K2-Effekt des Gitarren-Röhrenverstärkers= K2-Aufnahme im Studio + K2- Wiedergabe zuhause. Das lässt den Röhrenverstärker der Aufnahme
noch "röhriger" klingen (incl. dem ursprünglich "unröhrigen" Rest).
Vergleichst du das dann wiederum mit einer Wiedergabe über Transistorverstärker, fehlt diese Verdoppelung und erweckt ohne Kenntnis des Originalklanges der Eindruck, es gäbe nun ein K2-Deffizit.
Anderer Vergleich, untechnisch: Ein Maler überstreicht eine schwarze Wand mit einem gering deckenden Weiß, um sie hellgrau wirken zu lassen. Wenn du das Gemäuer hinterher dann selbst noch einmal mit der gleichen Farbe überpinselst, hast du anschließend ein
noch helleres Grau. Aber eben nicht mehr das ursprüngliche Grau des Malers.