Archiv verlassen und diese Seite im Standarddesign anzeigen : Interferenz - einmal gut und dann wieder böse
Ich habe mir in der Vergangenheit und zunehmend in der Gegenwart darüber Gedanken gemacht warum einerseits Interferenz als naturgegeben zu akzepieren ist und anderseits künstlich erzeugte Interferrenz auserhalb des natürlichen nicht gewünscht ist. Warum soll die schlechter sein?
Jeder Lautsprecher ausser Sonderfällen wie z.b. DML Panels erzeugen ihre Richtwirkung durch die schnöde Fläche der Membran oder den Abstand von Membranen zueinander. Die Richtwirkung wird durch Auslöschung sprich Interferenz erzeugt.
Anderseits wird bei Frequenzweichenschaltungen immer das Dogma vertreten das im Filterbereich es korrekt zugehen muß. Die Schalladdition soll immer so sein das der Gesamtpegel immer über den Einzelpegeln der Chassis liegt.
Warum eigentlich? Irgendwann hat wohl mal einer erzählt das das so sein muß. Ich meine nicht. Die klassischen Filtertheorien gehen immer von linearen Verhalten aus. Das machen vielleicht Verstärker aber nie und nimmer Lautsprecher.
Ich habe aus einfachen Versuchen die Erfahrung gemacht das das klanglich nicht immer der beste Weg sein muß. Manchmal hören sich Konstruktionen einfach deutlich besser an wenn man dieses Dogma einfach mal verlässt. Ich höre da gerade mit einer alten Coral Konstruktion die so ist und die gefällt mir. Die erste Konstruktion die ich nach so einer anderen Philosophie entwickelt gesehen habe war eine von Michael Weidlich mit ESS-AMT1 und Excel-Chassis drumherum.
https://www.weidlich-audio.de/ess-gas-1.html
Der scherte sich um das alte Dogma einfach nicht und baute einen sich breitbandig überlappenden Lautsprecher der aufgrund von Interferenz einen halbwegs geraden Frequenzgang erzeugte. Die Einzelfrequenzgäge der Chassis lagen in großen Bereichen über dem des Gesamtlautsprechers. Ziel war eher das alle Chassis zeitgleich auf das Eingangssignal anspringen.
Er hatte die Eier und hat es sogar in der Hobby Hifi veröffentlicht.
Die Frage ist einfach nur - warum ist Interferenz einmal ok und dann wieder nicht?
Genau diese Frage hat man auch im LS 3/5 Battle.
Hallo,
Anderseits wird bei Frequenzweichenschaltungen immer das Dogma vertreten das im Filterbereich es korrekt zugehen muß. Die Schalladdition soll immer so sein das der Gesamtpegel immer über den Einzelpegeln der Chassis liegt.
Warum eigentlich? Irgendwann hat wohl mal einer erzählt das das so sein muß.
Wegen ein paar Grad Abweichung in der Phasenlage rauf ich mir auch nicht die Haare (zumal nur noch wenige da sind).
Ein Problem bei größeren Abweichungen oder gleich gänzlichen Verzicht auf definierte Filterflanken liegt in der dann undefinierten vertikalen Abstrahlung.
Die vertikale Hauptabstrahlkeule, so sie dann überhaupt noch ausgeprägt ist, kann dann schon mal heftig schräg nach oben oder unten zeigen oder maximale Auslöschung/"Schallminimum" auf Abhörhöhe entstehen. Was dann extreme Klang- und Lautstärkeschwankungen bei nur kleinen vertikalen Winkeln entstehen lässt.
Ferner kann theoretisch auch in der horizontalen Abstrahlung allerlei Ungemach entstehen, wenn dann unter größeren Winkeln die Phasenlagen plötzlich passen und optimale Schalladdition stattfindet oder das umgekehrte Phänomen eintritt.***
Das kann durchaus noch klingen, macht aber sicher Probleme mit anderen psychoakustischen Effekten (Räumlichkeit, Ortung,...) wenn z.B. die ersten Reflexionen (vertikal oder horizontal) plötzlich lauter sind als der Schall im Direktfeld.
*** Wobei das wohl eher bei großen Überlappungsbereichen mit unterschiedlich abstrahlenden Chassis auftreten könnte.
Gruß Armin
Es kann theoretisch aber genau das Gegenteil auftreten.
Hallo,
Es kann theoretisch aber genau das Gegenteil auftreten.
Klar, es könnte durch Zufall eine bisher unentdeckte, genial abstrahlende Filterkombination gefunden werden. Der Glückspilz bekommt genau das, alle anderen werden durch die Wahrscheinlichkeit niedergestreckt ;)
Gruß Armin
Ich stecke ja noch nicht so tief drin und verstehe wahrscheinlich genau deswegen nicht, wie man dem verlinkten LS eine "phasenrichtige Abstrahlung" bescheinigen kann, wenn es doch zu (wenngleich absichtlichen) Auslöschungen kommt ...
Ich fang ja jetzt erst an mit dem Ding
@CTRL
vielleicht mal etwas abseits bekannten Wegen gehen. Oder bist du der Meinung das du die Wahrheit gepachtest hast. Ich finde es immer spannend einfach mal neues auszuprobieren. Mein Vorteil ist - ich kann es.
mtthsmyr
23.10.2018, 00:12
Ziel war eher das alle Chassis zeitgleich auf das Eingangssignal anspringen.
Ich vermute, dass das ein recht wichtiger Punkt ist.
Ich habe den Eindruck, dass häufig zu sehr darauf geschaut wird, was am Hörplatz passiert. Da werden tw. die Laufzeiten miteingerechnet und an der Phase geknetet, dass am Hörplatz bei der Trennfrequenz eine saubere Phasenlage entsteht. Häufig erzeugt man aber gerade damit erst die Situation, dass das Gehör den von den Treibern angestrahlten Schall als voneinander getrennte Schallereignisse wahrnimmt.
Gibt ja auch Lehrbuchfilter, die keine 6-dB Addition liefern. Phasenkohärent (mit ggf. konstantem Phasenoffset) sind aber glaube ich die meisten.
Hallo,
Oder bist du der Meinung das du die Wahrheit gepachtest hast.
Franky, bitte bleib sachlich. Ich habe dich in keiner Wiese persönlich angegriffen oder beleidigt.
Du hast eine Frage gestellt, ich hab dir geantwortet - wie es im Forum üblich ist.
Gruß Armin
Anderseits wird bei Frequenzweichenschaltungen immer das Dogma vertreten das im Filterbereich es korrekt zugehen muß. Die Schalladdition soll immer so sein das der Gesamtpegel immer über den Einzelpegeln der Chassis liegt.
Warum eigentlich? Irgendwann hat wohl mal einer erzählt das das so sein muß. Ich meine nicht. Die klassischen Filtertheorien gehen immer von linearen Verhalten aus. Das machen vielleicht Verstärker aber nie und nimmer Lautsprecher.
Ist das ein Dogma? Ich ignoriere das immer geflissentlich, ein wenig Interferenz sieht vielleicht nicht perfekt aus, schadet aber auch nicht.
Oder etwas wissenschaftlicher ausgedrückt: wo möchte man denn keine Interferenz haben? In 1m Abstand? In 2m? In 70, 80, 90 cm Höhe?
Was bedeutet es denn, wenn die Summenkurve unter den Einzelkurven liegt? Doch nur, dass die ideale Addition nicht an der Messposition stattfindet (vulgo: die Hauptabstrahlkeule (HAK) woanders hin zeigt). Also entweder darunter oder darüber. Jetzt kann man sich das also entweder schön messen (Mikrofon verstellen) oder sich Gedanken um die Auswirkungen machen.
Unabhängig davon, ob die HAK nach unten oder oben zeigt hat das drei Konsequenzen:
1.) der Klang ist vom Hörabstand abhängig
2.) der Klang ist von der Ohrhöhe abhängig
3.) man erzeugt eine Reflektion, die unter Umständen stärker ist als der Direktschall.
Sofern man nicht einen voll vertikalsymmetrischen Lautsprechern aufbaut ist 1.) immer so. Punkt*. Man kann den Einfluss verringern, indem man lange herumoptimiert, aber er ist da.
2.) lässt sich auch nur theoretisch durch ideale Linearrays vermeiden**.
3.) ist dagegen schon spannender. Das Gesetz der ersten Wellenfront erlaubt es uns, Reflektionen auszublenden, wenn diese innerhalb eines Zeitfensters einen zum Direktschall relativen Pegel nicht überschreitet. Hier liegt also eine theoretisch Grenze: wenn die HAK im falschen Winkel liegt, und zu laut ist, dann kann ihre Reflektion hörbar werden.
Zusammengefasst gilt eigentlich wie immer: Interferenzen kommen vor, lassen sich nicht vermeiden, und sollten einfach nur gering gehalten werden.
* Jajaja, Linkwitz/Riley, blablabla, da wird auch einfach ein Punkt im Unendlichen (genauer: Hörabstand deutlich größer als Treiberabstand) angenommen, das kann ich auch
** Nein, vertikale constant-directivity ist nicht zwangsläufig gleicher Klang unabhängig von der Ohrhöhe. Fletcher-Munson, anyone?
phase_accurate
23.10.2018, 09:24
Die Einzelfrequenzgäge der Chassis lagen in großen Bereichen über dem des Gesamtlautsprechers. Ziel war eher das alle Chassis zeitgleich auf das Eingangssignal anspringen.
Konstantspannungsweichen verhalten sich von Natur aus so, dass immer mindestens ein Treiber in der Nähe der Uebernahmefrequenz pegelmässig über dem Summenpegel liegt. Der Vorteil der "Zeitrichtigkeit" dieser Weichen muss mit den Nachteilen der unregelmässigen Abstrahlung und einer Verschlechterung des Wirkungsgrades erkauft werden.
Gruss
Charles
Hallo,
hier noch ein (wahrscheinlich schon bekannter) Link zu einer theoretischen Betrachtung von "Power Response in Speaker Design" (http://www.musicanddesign.com/Power.html)welcher sich indirekt mit der vertikalen Abstrahlung (und den Haupt-Abstrahlkeulen) bei verschiedenen Filtern beschäftigt.
Da bei rein theoretischen Betrachtungen die Auswirkungen meist dramatischer aussehen als sie dann in der Realität sind, da dort noch viele weitere Faktoren wie Schallwand, Kantendiffraktion, Schallführungen,... die Filterung beeinflussen, hier einfach mal ein Paar Simulationen zu definierte Filterflanken versus "Interferenz mit einem halbwegs geraden Frequenzgang" - oder wie Franky sagte "gute" gegen "böse" Interferenz.
Habe gerade in ABEC nichts anderes bereit liegen als die Simulation eines Top-Teils mit Waveguide:
45973
Bei einem "normalen" 2-Weger könnten die Ergebnisse etwas dramatischer aussehen, da dort die Abstrahlung unter Winkeln nicht so gleichmäßig ist - wie gesagt, hab nichts besseres...
Um nicht ewig an der Modellierung der Filterflanken zu sitzen, werden einfach unterschiedliche definierte Filter kombiniert. Völlig "willkürliche" Filterflanken die sich breitbandig Überlappen und kombiniert auf Achse einen linearen Schalldruckverlauf aufweisen, würden natürlich viel extremere Ergebnisse liefern.
Da es sich um eine Simulation handelt und das Gehäuse schon optimiert ist, "zappeln" die Schalldruckverläufe viel weniger als in der Realität. Dadurch sehen die Simulationen gerade bei großer Überlappung "schöner" aus als im wahren Leben.
Die Reihenfolge der unterschiedlichen Betrachtungen:
1. Klassiche Trennung LR 4. Ordnung@2.7kHz
2. BW 3. Ordnung mit LR 6. Ord. @2.7kHz
3. BW 1. Ordnung@2.5kHz mit LR 6. Ord.@3kHz
4. BW 1. Ordnung@2.7kHz mit LR 2. Ord.@2.7kHz
5. BW 4.Ord@1.8kHz mit BW 4.Ord@2kHz
Wir beginnen ganz klassisch mit Linkwitz-Riley und gehen dann zu verschiedenen Kombinationen unterschiedlicher Filter, wobei die Überlappung der Filterflanken immer mehr gesteigert wird 2./3./4.
In Simu 5 wird dann noch die angestrebte Trennung des Projekts mit BW 4.Ord@1.8kHz mit BW 4.Ord@2kHz mit, laut "Filtertheorie", um Faktor 1.13 verschobenen Trennfrequenzen gezeigt (ist vertikal auch nicht ganz optimal).
Zuerst die Trennung und FG auf Achse, dann das normierte vertikale Sonogramm ***:
45974 45976 45978 45980 45982
45975 45977 45979 45981 45983
Wie gesagt, durch die sehr gleichmäßige Abstrahlung der Chassis, fallen die Ergebnisse sicherlich deutlich besser aus, als in der Realität bei Einsatz von Chassis ohne Waveguide und großer Überlappung.
Denke aber die angesprochenen möglichen Probleme in der vertikalen Abstrahlung kann man gut erkennen.
*** Nicht wunder wenn die Skalierung der Sonogramme leicht differiert. Die Skalierung wurde so gewählt, dass die bestmögliche Differenzierung ermöglicht wird.
Gruß Armin
Hallo,
noch der Vollständigkeit halber, breite Überlappung unterschiedlicher Filter und tiefere Trennung:
6. BW 1. Ordnung@2kHz mit LR 2. Ord.@2kHz
45985
45986
Gruß Armin
roomcurve
23.10.2018, 10:11
Oder man nimmt gleich einen gescheiten Coax im mittelhochtonbereich und lässt die ganze Probleme und Kompromisse im Keim ersticken.
sonicfury
23.10.2018, 10:18
Neben dem was JFA schon sschon ausgeführt hat folgendes:
Ich höre es nicht. Anhand mehrerer Versuche mit den Vollaktiven LS kann ich sagen "zeitrichtig" ist völlig unwichtig für "mein Hörsystem".
Was ich allerdings extrem höre ist:
Veränderungen des Verhältnisses Direkt zu Indirektem Schall, im weitesten Sinne reagiere ich also auf das Abstrahlverhalten. Das Abstrahlverhalten ist sehr direkt mit der Anatomie der Weiche verbunden (Steilheit, Keulen usw).
Ich sehe neee höre das genau wie Jens, wenn die Phase nicht komplett durch eine "kranke" Konstruktion wegläuft gibt es wichtigere Dinge. Auch muss es nicht zwingend ein Koax sein. Alles hat seine Vor- und Nachteile. Die lambda/2 Regel funzt auch ganz gut. Auch muss man nicht "die Eier in der Hose haben" so etwas Abstruses wie der Weidlich vorzustellen, sondern eher die "langweiligen" Sachen, welche aber vorhersagegemäß funktionieren.
:prost:
EDIT: Ich habe die HH 5/2002 und ich habe den Verdacht, dass die Weiche (was für ein Bauteilgrab, dass selbst BT Albträume bekommt) nur (!!) darauf getrimmt ist, die Spungantwort (auf Achse!) ach so hübsch aussehen zu lassen....
https://www.weidlich-audio.de/mediapool/138/1381359/resources/43833216.jpg
Quelle: https://www.weidlich-audio.de/mediapool/138/1381359/resources/43833216.jpg
(https://www.weidlich-audio.de/mediapool/138/1381359/resources/43833216.jpg)EDIT 2: Ich finde den LS sogar ansprechend. Allerdings hätte ich es genau anders herum gemacht: Ohne diesen riesigen Übernahmebereich von 1,5-5kHz, und der D'Appo Verschaltung des TMT ober und unterhalb des AMT. Nur der untere läuft als reiner TT. Ich würde die beiden äußeren TMT als TT laufen lassen und den unter dem AMT als MT (wegen mir auch als TMT). Ich befürchte das hört sich besser an, als der Interferenzbrei.....
EDIT3: Ach ich baue das als Projekt auf...den AMT habe ich eh' in meinem Fundus und es müssen ja nicht die roten Seas sen....einmal als Interferenzmaschine und einmal in langweilig......
(https://www.weidlich-audio.de/mediapool/138/1381359/resources/43833216.jpg)
Ich bekenne mich mal als "Phasenhörer".
Daher noch mal die Frage, wie man die Interferenzen als phasenrichtig bezeichnen kann.
Ist wirklich eine Frage, keine Kritik.
Moin Cap,
manchmal möchte man ja einfach einem solch "elitären" Kreis zugehören. Ich halte es eher so:
"Do it blind! If you know what you're listening to, I don't care what you think." (Dr. Floyd E. Toole)
Zur Interferenzfrage: Was möchtest Du wissen? Es gibt Schwingungen von unterschiedlichen Entstehungsorten, die sich an der Stelle meiner Ohren mal mehr oder weniger in der Phase richtig oder falsch überlagern können. It's simple as that.
:prost:
Richtig oder falsch ist vielleicht nicht so korrekt: Konstruktiv oder destruktiv trifft es richtiger....und es gibt nicht schwarz oder weiß.....dazwischen sind alle grau"töne" möglich.
EDIT2: Du bezeichnest Dich als "Phasenhörer", weißt aber nicht so richtig, was das überhaupt ist????????????
Ich stecke ja noch nicht so tief drin und verstehe wahrscheinlich genau deswegen nicht, wie man dem verlinkten LS eine "phasenrichtige Abstrahlung" bescheinigen kann, wenn es doch zu (wenngleich absichtlichen) Auslöschungen kommt ...
Ja, aber Auslöschungen auf Grund gleich abgestrahlter Frequenzen infolge der großen Überlappungsbereiche der beteiligten Chassis und nicht durch Phasendrehungen/Phasenfehler.
LG Micha
Moin Micha,
sehr treffend! Da muss man unterscheiden!
:prost:
Den ersten Teil verstehe ich in dem Zusammenhang nicht. Ich kann z.B. blind, nur mit der FB in der Hand, ein Sub-Sat-System phasenrichtig einstellen (über das Delay). Irgendwann rastet es ein. Ebenso nervt es mich, wenn meine Surroundanlage nicht zentimetergenau eingestellt ist. Das höre ich, stehe auf und schaue, ob nicht irgendjemand beim Spielen oder Staubwischen die LS verschoben hat. Seither sind sie fest verschraubt bzw. habe ich am Boden Markierungen. Ebenso habe ich bei meinen Selbstbauten den letzten Feinschliff im Übergang nach Gehör gemacht (Treiberposition, Flankenmodellierung).. Dafür höre ich andere Dinge überhaupt nicht. Ist nun mal so.
Das hat nichts mit einem Wunsch nach "elitär" zu tun.
Mir geht es darum, wie man (bewusste) Auslöschungen als phasenrichtig bezeichnen kann. M.E. wurde hier bewusst mit der falschen Phase gearbeitet, sonst käme es im Überlappungsbereich nicht zu den gewollten Auslöschungen. Das ist ja aus anderen Konzepten durchaus bekannt. Da würde man dann aber von gegenphasig etc. sprechen.
Kripston
23.10.2018, 12:59
Hallo Jens,
Ich höre es nicht. Anhand mehrerer Versuche mit den Vollaktiven LS kann ich sagen "zeitrichtig" ist völlig unwichtig für "mein Hörsystem".
Nicht nur für dein Hörsystem....
Das menschliche Gehör ist für absolute Phasenverläufe taub. Lediglich die aus dem Phasenverlauf ableitbaren Gruppenlaufzeiten können ggf. hörbar werden, wenn sie (bekannte) Hörschwellen überschreiten. Das kann man aber eigentlich nur im unteren Bassbereich mit sehr steilen Filterungen oder halt mit BR-Boxen hinbekommen.
Lediglich interaurale Phasendifferenzen von (Phantom-)Schallquellen spielen bei der Ortung eine Rolle, allerdings auch nur in einem sehr beschränkten Frequenzbereich so ca. zwischen 400 und 1500 Hz (ca. deswegen, weil sich da Infoquellen leicht unterscheiden). Darunter keine Ortung, darüber nur durch Pegeldifferenzen.
Kann über die Jagd nach Zeitrichtigkeit nur noch grinsen, da wird ein unhörbarer Parameter (das geht ja ohnhin nur auf genau einen Abhörpunkt) optimiert eindeutig zu Lasten von garantiert hörbaren Parametern/Eigenschaften.
Und: was bleibt von der unter Freifeldbedingungen eingestellten Zeitrichtigkeit eigentlich im akustisch kleinen Abhörraum mit all seinen Reflexionen und im Diffusfeld eigentlich noch übrig ????
Gruß
Peter Krips
Moin Cap,
das ist nachvollziehbar. Erst hörte es sich danach an, dass Du Phasenverschiebungen durch die Frequenzweiche hören könntest (das geht tatsächlich auch, aber das muss schon extrem sein).
:prost:
EDIT: Peter hat zeitgleich mit einer richtigen Erklärung geantwortet!
Eben. GLZ-Differenzen sind hörbar.
@ Fosti: Nein, so sollte sich das nicht lesen.
Eben. GLZ-Differenzen sind hörbar.
Oha, jetzt bist Du aber wieder bei einem anderen Thema, welches nichts mit der Aufstellung zu tun hat, sondern mit dem was Peter geschrieben hat! Und dazu muss die Konstruktion schon ziemlich krank sein....
.....
Kann über die Jagd nach Zeitrichtigkeit nur noch grinsen, da wird ein unhörbarer Parameter (das geht ja ohnhin nur auf genau einen Abhörpunkt) optimiert eindeutig zu Lasten von garantiert hörbaren Parametern/Eigenschaften.
Und: was bleibt von der unter Freifeldbedingungen eingestellten Zeitrichtigkeit eigentlich im akustisch kleinen Abhörraum mit all seinen Reflexionen und im Diffusfeld eigentlich noch übrig ????
Gruß
Peter Krips
Wie wahr :prost::prost::prost:
Das bezog sich auch auf Peter ;)
Schlag auf Schlag halt.
So, die Bescheinigung der Zeitrichtigkeit habe auch ich bewusst überlesen. Nachdem das geklärt ist:
Wenn sich zwei Chassis phasenrichtig überlappen, müsste sich doch auch im breiten Überlappungsbereich eine Addition ergeben.
Naja, genau that's the problem...und dem begegnet man bei nun mal nicht getrennten Schallentstehungsorten mit ausreichender Steilheit der Filter und eben nicht mit einem breiten Überlappungsbereich :prost:
Kripston
23.10.2018, 13:14
Hallo,
Den ersten Teil verstehe ich in dem Zusammenhang nicht. Ich kann z.B. blind, nur mit der FB in der Hand, ein Sub-Sat-System phasenrichtig einstellen (über das Delay). Irgendwann rastet es ein. Ebenso nervt es mich, wenn meine Surroundanlage nicht zentimetergenau eingestellt ist. Das höre ich, stehe auf und schaue, ob nicht irgendjemand beim Spielen oder Staubwischen die LS verschoben hat. Seither sind sie fest verschraubt bzw. habe ich am Boden Markierungen.
Da wirfst du ein paar Dinge durcheinander.
Im Thread geht es zunächst um den Phasenverlauf einer einzelnen Schallquelle, der ist nicht hörbar.
Was du beschreibst, ist das, was ich im Post #22 bei interauralen Phasendifferenzen beschrieben habe, das ist eine ganz andere "Baustelle" und kann bei schlechter Einstellung (Delay, Aufstellung im Raum etc.) in der Tat die Ortung beeinträchtigen.
Gruß
Peter Krips
Naja, genau that's the problem...und dem begegnet man bei nun mal nicht getrennten Schallentstehungsorten mit ausreichender Steilheit der Filter und eben nicht mit einem breiten Überlappungsbereich :prost:
Also ist der Begriff der Phasenrichtigkeit hier doch schlicht falsch gewählt, oder? Nur zu meinem Verständnis, sonst nix.
2 unterschiedliche Phänomene:
i) 2 Schallentstehungsorte: Durch die unterschiedlichen Laufzeiten kann es zu kon- und destruktiven Interferenzen (Überlagerungen) am Hörort kommen.
ii) Phasendrehungen innerhalb eines LS (kranke BR Abstimmumg, Frequenzweiche etc.) können hörbar werden
Letzteres ist kein Interferenzproblem....
Meine Frage zielt die ganze Zeit auf i).
Der Rest kam nur auf, weil ich nicht wusste, was Du mir sagen wolltest und ist sogar bekannt.
Aber danke. Lassen wir mal Franky weitermachen.
Das wird noch bei holographischen Raumfeldern landen, das Thema.
Da wird sich noch viel tun mit Arrays mit einzeln phasengesteuerten Lautsprechern. Die Aufwände werden immer geringer.
Gruß
Arnim
phase_accurate
23.10.2018, 14:07
Naja, genau that's the problem...und dem begegnet man bei nun mal nicht getrennten Schallentstehungsorten mit ausreichender Steilheit der Filter und eben nicht mit einem breiten Überlappungsbereich
Wirklich ? Hier gibt es einen Vorschlag mit breitem Überlappungsbereich UND optimierter Abstrahlung (Abschnitt 5):
https://www.researchgate.net/publication/269102933_CROSSOVER_ALIGNMENTS_FOR_ANALOGUE_AND_DI GITAL_ACTIVE_LOUDSPEAKERS
Gruss
Charles
Wirklich ? Hier gibt es einen Vorschlag mit breitem Überlappungsbereich UND optimierter Abstrahlung (Abschnitt 5):
Randomisierte Filter...kranke Scheiße.
Hat man danach von Hawksford nochmal etwas gehört?
....ich wollte es nicht so drastisch rüberbringen....
roomcurve
23.10.2018, 16:16
Bezüglich der Hörbarkeit der absoluten Phase, ja, zum größten Teil hört man eher Abweichungen in der GLZ wenn sie über die dokumentierten Grenzen ist. Aber man kann auch einen Lautsprecher linearphasig entzerren und umschalten und dass kann bei gleichem Amplitudenfrequenzgang und passenden Hörmaterial ganz leicht anders klingen, z.B. bei den nicht mehr produziertern K&H O500, aktiven KEF LS50 oder wenn man Programme wir Acourate oder Rephase besitzt. Die Unterschiede sind wie gesagt sehr gering und setzen auch eine gute Raumakustik voraus so dass nicht der Diffusschall dominiert, weil sonst wie Peter schreibt eh die Phase am Hörplatz nichts mehr mit dem Ausgang des Lautsprechers zu tun hat.
Dieser Lautsprecherhersteller soll auch auf ähnlichen Theorien von Weidlich abstimmen. Ob es wirklich stimmt weiß ich nicht. Ich weiß aber genau was da für Treiber drin sind.
http://www.strauss-elektroakustik.ch/produkte
https://proaudiogear.de/product_info.php?products_id=1402 (http://www.strauss-elektroakustik.ch/produkte)
So eine Box würde ich mit Sicherheit auch auf die Reihe kriegen. Nur ob sie mir jemand für so einen Preis abkaufen würde steht auf einem anderen Blatt.
moin Franky,
ich könnte mir sogar vorstellen, die für den Stückpreis auch aktiv anzubieten :D:prost:
So eine Box würde ich mit Sicherheit auch auf die Reihe kriegen. Nur ob sie mir jemand für so einen Preis abkaufen würde steht auf einem anderen Blatt.
Ich könnte mir sogar vorstellen, die für den Stückpreis auch aktiv anzubieten :D:prost:
Moin Männers,
da müsst ihr erst noch etwas an eurem Nimbus arbeiten und zumindest einen Firmensitz in Lichtenstein oder Andorra buchen.;). Bei dem Preisstrauß ist wahrscheinlich noch ein Cashback auf ein Nummernkonto implementiert:rolleyes:.
Jrooß Kalle
Moin Kalle,
eigentlich nicht. Lass' einen nur ein Paar pro Jahr verkaufen. Das ist doch ein schönes Weihnachtsgeld. Es steht jeden Morgen jemand auf, der Reinsilber-Cinchkabel kauft. Wenn man allerdings auf den regelmäßigen Verkauf angewiesen ist, dann ist es eher anstrengend.
:prost:
ich könnte mir sogar vorstellen, die für den Stückpreis auch aktiv anzubieten :D:prost:
Dann verdienst Du aber weniger...
Moin,
ich denke, um bei diesen Stückzahlen und weltweiter Vermarktung überleben zu können, dürfen die Produktionskosten maximal bei 10% liegen.
Das könnte gut hinkommen. Bei Studioausstattung muss man dann ganz bestimmt bei notwendigen Ausschreibungen rabattieren. Die Preisgestaltung ist für ein solches Produkt schon OK. Man darf und muss sie nicht unbedingt kaufen.
Dass wir so ein Stück ansehen und darüber diskutieren und philosophieren dürfen, vollkommen kostenfrei:D, ist ja auch ganz nett:cool:.
Gruß Kalle
Dann verdienst Du aber weniger...
Jochen, bei 27k€ VK wäre der "Verlust" bei einer Aktivierung zu verschmerzen....wie gesagt "Weihnachtsgeld"........nicht wenn davon leben muss!
Moin,
ich denke, um bei diesen Stückzahlen und weltweiter Vermarktung überleben zu können, dürfen die Produktionskosten maximal bei 10% liegen.
Das könnte gut hinkommen. Bei Studioausstattung muss man dann ganz bestimmt bei notwendigen Ausschreibungen rabattieren. Die Preisgestaltung ist für ein solches Produkt schon OK. Man darf und muss sie nicht unbedingt kaufen.
Dass wir so ein Stück ansehen und darüber diskutieren und philosophieren dürfen, vollkommen kostenfrei:D, ist ja auch ganz nett:cool:.
Gruß Kalle
Jo, das Horn dürfte ziemlich genau dieses 90°x40° sein: https://www.jblpro.com/pages/pub/components/2380a.pdf
Äh, meine "onetwo" Samstag in einer Woche zum rabattierten Aktionspreis von 4.888 Euro/Stück. Ein echtes Schnäppchen, Handaufzucht... Wo sind die mit den Silberkabeln??
Grtz
Arnim
Jepp das Horn hatte ich auch schon gesehen. So viele Treiber gibt es ja auch nicht dafür. BMS Coaxialtreiber?
Jo, das Horn dürfte ziemlich genau dieses 90°x40° sein: https://www.jblpro.com/pages/pub/components/2380a.pdf
Glaube ich nicht,
es ist bestimmt dieses hier.
https://www.bluearan.co.uk/index.php?id=PAUPH2380
Die Reste des Aufklebers stören doch beim Lackieren:D.
Glaube ich nicht,
es ist bestimmt dieses hier.
https://www.bluearan.co.uk/index.php?id=PAUPH2380 :cool:
Die arbeiten seit längerem zusammen.......
..also nicht der britische Vertieb sondern eher P.Audio und JBL....
Ach was ........ was gibt es sonst noch Neues ... wie sieht es aus mit de Tied:confused:.
...de Tied:confused:. What? oder wat?
Noch was zum Diskutieren
https://www.foersteraudio.de/produkte.htm
https://www.foersteraudio.de/man_technik.htm
phase_accurate
24.10.2018, 12:48
Die grossen und die nächst kleineren Strauss konnte ich schon einmal in einem Studio hören. In Stereo und surround. Ist definitiv ein seriöses no-nonsense Produkt. Tun akustisch das was man von einem Studiomonitor erwartet: Das zugeführte Signal neutral, und unangestrengt (selbst wenn es mal laut wird) wiedergeben ohne die Aufmerksamkeit auf sich zu lenken. Neu würde ich mir diese auch nicht kaufen. Der Preis ist sicher hoch, aber nicht exorbitant. Sie sind schön verarbeitet. Welche Treiber drin sind kann ich nicht sagen, bis auf den Woofer, der ist ein TAD 1601.
Ich glaube nicht, dass sei vollkommen auf Zeitrichtigkeit getrimmt sind aber auf relativ kleine Gruppenlaufzeitverzerrungen (wer erinnert sich an die "time-align" Monitore ?).
Die Föster habe ich noch nicht gehört, sind wahrscheinlich noch teurer als die Strauss. Wenn er die zeitrichtig hinbekommen hat, sehr gut ! Wenn er das gleichzeitig noch hingekriegt hat mit einer guten Abstrahlung, niedrigem Klirr, linearem Frequenzgang und einem sauberen Ausschwingen (die würde ja eigentlich auch zum zeitlichen Verhaltehn gehören - nicht nur das korrekte Einschwingen): noch besser.
Die Begründenungen zu Zeitrichtigkeit sinde m.E. aber etwas dürftig. Ich würde sagen, dass die Zeitrichtigkeit nicht einen Einfluss darauf hat, in welcher räumlichen Tiefe (das Beispiel mit der Sopranistin) eine Phantomschallquelle wahrgenommen wird, sondern ein Wenig bei der Genauigkeit (Schärfe) der Lateralisation.
Gruss
Charles
Hallo,
Noch was zum Diskutieren
https://www.foersteraudio.de/produkte.htm
https://www.foersteraudio.de/man_technik.htm
wie aktuell und gewichtig ist denn die Diskussion um zeitrichtige LS im Jahr 2018?
Dachte Anfang der 2000er Jahre wurde dazu schon alles gesagt (Tiefbass kann es problematisch sein, sonst praktisch nie - als Zugabe wie Bruno Putzey sagte: "Icing on the cake")?
Oder kommt die Diskussion im Zuge der Aktivierung von LS wieder?
Quelle: https://www.foersteraudio.de/man_technik.htm
In über 20 Jahren Forschungsarbeit hat Förster Audio herausgefunden, mit welcher Technik Lautsprecher am besten klingen...
...
Wandernde Stimmen
Ein weiterer Nachteil nicht zeitrichtig abgestimmter Lautsprecher manifestiert sich in imaginär im Raum wandernden Schallquellen, zum Beispiel in wandernden Stimmen. Man stelle sich im Konzertsaal eine Sopranistin vor, die das hohe „C“ singt und Ihre Position vorn am Bühnenrand nicht ändert, während Ihre Stimme der Arie folgend in eine tiefere Lage absteigt. Der Hörer im Konzertsaal lokalisiert die Stimme der Sopranistin im Verlauf der Arie deshalb in derselben Position, also vorn am Bühnenrand. Denselben Höreindruck vermitteln zeitrichtig abgestimmte Lautsprecher.
Eine völlig andere Situation stellt sich bei nicht zeitrichtig arbeitenden Lautsprechern ein. Diese vermitteln den Eindruck einer die tiefere Lage singenden Doppelgängerin der Sopranistin im hinteren Bereich der Bühne, was den Hörer spätestens dann stark irritiert, wenn höhere Töne unvermittelt wieder von der Sopransistin am vorderen Bühnenrand gesungen werden.
Der technische Grund für abhängig von der Tonhöhe wandernde Schallquellen liegt bei herkömmlichen Lautsprechern alleine darin, dass in dem tonalen Bereich in dem der Tiefmitteltöner und der Hochtöner etwa die gleiche Tonhöhe wiedergeben, der Hochtöner seine Schallerzeugung deutlich früher als der Tiefmitteltöner startet.
...
Lautsprecher von Förster Audio sind penibel zeitrichtig auf naturidentischen Klang abgestimmt und lassen Musik so immer und überall zu ihrem Recht kommen.
So, dann mal der laienhafte Versuch einer Analyse des zentralen Beispiels der 20 Jahre Forschungsarbeit ;)
Schauen wir uns erst mal die im Beispiel genannte Sopranistin etwas näher an. Wo genau liegt denn ihr Stimmbereich? Als Nachweis hilft da Wikipedia weiter (https://upload.wikimedia.org/wikipedia/de/7/7a/Tonh%C3%B6hen_der_stimmlagen.png) und liefert 300-800Hz für die Grundtöne. Das im Text angesprochene "hohe C" sollte das dreigestrichene C mit 1047Hz sein (bin da aber nicht so bewandert). Welches selbst in der Klassik nicht allzu oft vorkommt - egal.
Damit liegt der Grundton auch beim "hohen C" bei klassischen 2, 3 oder 4-Wege immer im Arbeits-Bereich des TMT. Nun hat ein Sopran noch zusätzliche Obertöne, was dann so aussehen kann:
45994
Hier für den Grundton von 740Hz, schon ziemlich hoch, aber kein "hohes C". Die relevanten Obertöne liegen bei 1480 und 2960Hz. Analog dazu würden bei der Sopranistin der Grundton mit den beiden Obertönen bei 1047, 2094 und 3141Hz liegen.
Bei den meisten 3 und 4-Wege LS dürfte der erste Oberton mit 2094Hz immer noch hauptsächlich vom TMT, MT oder MHT abgespielt werden. Nur der deutlich leisere zweite Oberton wird wohl hauptsächlich vom HT abgespielt werden.
Damit kann das beschriebene Phänomen, so es auftritt, wohl kaum von der nicht zeitrichtigen Abstrahlung von TMT und HT liegen, da der Grund- und erste Oberton und damit die absolut dominaten Schallanteile immer vom TMT, MT oder MHT abgespielt werden.
Ein anderer Blickwinkel wäre die Betrachtung der Sprungantwort und der damit verbundenen unterschiedlichen Laufzeiten des Schalls.
Eine typische Sprungantwort für einen 3-Wege-LS liefert:
45995
Der Mitteltöner/TMT kommt etwa 0,3ms hinter dem HT und der TT kommt etwa 1,3ms nach dem HT und etwa 1ms nach dem TMT. Wenn nun das Beispiel mit der Sopranistin stimmen würde (was es nicht tut - siehe oben ;)), dann würde die Stimme bei hohen Tönen, falls ich richtig gerechnet habe, etwa 10cm vor den tieferen Tönen die der MT wiedergibt liegen.
Bei 3m Abhörentfernung wage ich zu bezweifeln, dass der 10cm Versatz überhaupt wahrgenommen werden kann.
Speziell zu
...liegt bei herkömmlichen Lautsprechern alleine darin, dass in dem tonalen Bereich in dem der Tiefmitteltöner und der Hochtöner etwa die gleiche Tonhöhe wiedergeben, der Hochtöner seine Schallerzeugung deutlich früher als der Tiefmitteltöner startet.
Bemühen wir dazu die Aussagen zur Summenlokalisation.
Quelle: Wikipedia
(https://de.wikipedia.org/wiki/Summenlokalisation)
Der Summenlokalisationseffekt sei am Beispiel einer Lautsprecherbeschallung (https://de.wikipedia.org/wiki/Beschallung) erläutert. Strahlen zwei Lautsprecher L1 und 2 synchron (https://de.wikipedia.org/wiki/Synchron) exakt dasselbe Schallsignal phasenrichtig ab (also mit gleicher Frequenz (https://de.wikipedia.org/wiki/Frequenz)zusammensetzung und gleichem Schallpegel (https://de.wikipedia.org/wiki/Schallpegel)), so lokalisiert ein auf der Mittelsenkrechten (https://de.wikipedia.org/wiki/Mittelsenkrechte) der Lautsprecherbasis (https://de.wikipedia.org/wiki/Lautsprecherbasis) befindlicher Hörer nicht zwei getrennte Signale bei L1 und L2, sondern lediglich ein Summensignal in der Mitte der Basisbreite (https://de.wikipedia.org/wiki/Basisbreite), nämlich einen fiktiven Sender, genannt Phantomschallquelle (https://de.wikipedia.org/wiki/Phantomschallquelle).
...
Strahlt andererseits z. B. L1 nicht zeitsynchron mit L2 ab, sondern früher, so ergibt sich bereits bei der geringen Zeitdifferenz (https://de.wikipedia.org/wiki/Zeitdifferenz) größer ∆ t = 1,5 ms (1 ms bis 2 ms) der Höreindruck, dass nur der Lautsprecher L1 abstrahlt.
Da die Werte nicht überschritten werden, sollte sich der wahrgenommene Abstand weiter verringern und zwischen dem "Zeitversatz" liegen.
Gruß Armin
Swansteini
24.10.2018, 14:09
Ich denke das hast du sehr gut wiedergegeben! Die Zeitrichtigekeit eines Lautsprechers auch noch in bzw. auf der Hörposition zu gewährleisten ist meiner Meinung nach der Knackpunkt, und wennnnnn dann ließe sich der auch nur auf genau EINE Position verwirklichen. Wo wir dann wieder bei Musikhören als exklusives Alleinhobby wären.
Die Leute die auf der normalen Hörentfernung von i.d.R. 2 bis 3/3,5 Metern ihren Hörplatz haben und dann den 10 cm Versatz aus MHT und HT "hören" die brauchen auf jedenfall Silberkabel!
Gruß Swany.
Falsche Gedankengänge.
1.) Es geht bei der "Zeitrichtigkeit" um Transienten. Die Betrachtung des Spektrums ist dabei nicht hilfreich, oder zumindest irreführend. Man müsste schauen, welches spektralen Anteile wirklich noch vorhanden und hörbar sind. Die Obertöne sind zumindest hilfreich, aber die sind ja qua definitionem erst bei stehendem ("eingeschwungenem") ausgeprägt. Eine STFT oder ähnliche Analyse würde hier mehr Aufschluss geben.
2.) Bei der Betrachtung der Summenlokalisation ist die Sprungantwort unwichtig. Es geht allein um die Zeitdifferenz zwischen linkem und rechten Kanal. Dabei ist es völlig unerheblich ob der Transient (der ist wichtig!) irgendwie auf den TT oder TMT bandbegrenzt ist. Die Differenz ist immer gleich, während die absolute Zeit Unterschiede aufweist.
Das Ziel der Zeitrichtigkeit ist trotzdem völlig überbewertet. Ich nenne es nicht wie Putzeys "icing on the cake" sondern "keine Angriffsfläche für olle Meckerköppe bieten".
phase_accurate
24.10.2018, 14:41
Das Beispiel mit dem wandernden Abstand ist ganz sicher falsch. Der Abstand wird gehörmässig ja meistens durch a) den Pegel und b) das Verhältinis von reflektiertem zum Direktschall bestimmt. Hierbei hilft eine kontrollierte Abstrahlung sicher mehr als Zeitrichtigkeit, da ja in einem geschlossenen Raum bei schlecht kontrollierter Abstrahlung das Verhältnis von Direktschall und zusätzlich dazugekommenem reflektiertem Schall stark frequenzabhängig wird..
Bezüglich Lateralisation kann es aber Unterschiede geben, da bei einem zeitlich verschmierten Signal die interaurale Laufzeit durch das Gehör weniger genau bestimmt werden kann (die Auflösung des Gehörs ist in dieser Disziplin besser als 20 Mikrosekunden). Hörbar wäre das aber nur mit wenigen Aufnahmen (also nicht mit dem üblichen Panning) und auch nur wenn der Raum auch mitmacht und der Unterschied wäre auch nicht gross. Wenn man es mit wenig Aufwand tun kann, ohne die anderen Eigenschaften zu verschlechtern, wieso soll man es aber dann nicht tun ? Digitös z.B. ist das nicht so schwer zu bewerkstelligen.
Rein Signaltheoretisch betrachtet, hat ein Uebertragungskanal mit Gruppenlaufzeitverzerrungen übrigens die kleinere Kanalkapazität als einer ohne Gruppenlaufzeitverzerrungen (bei gleichem Rauschabstand, Klirr, IMD und Bandbreite).
Gruss
Charles
mtthsmyr
24.10.2018, 15:03
Kann jemand erklären, warum die nicht-zeitrichtigen Lautsprecher so gut funktionieren? Wenn man sich Sprung- und Impulsantworten eines LR4-Mehrwegers anschaut, kann man sich ja schon fragen, warum breitbandige Transienten mit soetwas sauber wiedergegeben werden können. Intuitiv erschließt sich mir das nicht, muss ich gestehen.
Vom Hören her habe ich bei Mehrwegern hinsichtlich Transienten auch noch nie ein Problem wahrgenommen. Aber wie gesagt: warum das funktioniert.... ?:dont_know:
Falsche Gedankengänge.
Genau:D
Es geht bei der "Zeitrichtigkeit" um Transienten. Die Betrachtung des Spektrums ist dabei nicht hilfreich, oder zumindest irreführend. Man müsste schauen, welches spektralen Anteile wirklich noch vorhanden und hörbar sind.
Eine Sängerin oder Sänger ist kein Sinusgenerator. Eine real existierende Singstimme erzeugt neben dem gewünschten Ton gleichzeitig jede Menge persönlich charakteristischer Ober- und Untertöne, die keinesfalls nur Oberschwingungen oder Variationen des Grundtons sind und auch deutlich höher gehen als das "Hohe c".
Für Musikinstrumente gilt dies natürlich auch, zwischen einem gezupften und gestrichenen Tons eines Kontrabasses liegen im Klangspektrum bei gleichem "Ton" z.B. Welten..
Die Obertöne sind zumindest hilfreich, aber die sind ja qua definitionem erst bei stehendem ("eingeschwungenem") ausgeprägt.
Bei Musik hören wir keine eingeschwungenen Töne sondern komplexe Hüllkurven, es sei denn, du definierst den nackten Sound eines Tongenerators als Musik.
Bei der Betrachtung der Summenlokalisation ist die Sprungantwort unwichtig. Es geht allein um die Zeitdifferenz zwischen linkem und rechten Kanal. Dabei ist es völlig unerheblich ob der Transient (der ist wichtig!) irgendwie auf den TT oder TMT bandbegrenzt ist. Die Differenz ist immer gleich, während die absolute Zeit Unterschiede aufweist.
Ähämm, hier hat jemand noch keine guten Monoaufnahmen gehört. Zum Studium empfehle ich einfach mal MILES Filmmusik des Ascenseur pour l'échafaud (Fahrstuhl zum Schafott). Bei der Analyse der Musik und der Instrumente stellt man erst sehr spät fest, dass es sich um eine Mono Aufnahme handelt. Die Instrumente haben eine sehr realistischen "Körper".
Das Ziel der Zeitrichtigkeit ist trotzdem völlig überbewertet. Ich nenne es nicht wie Putzeys "icing on the cake" sondern "keine Angriffsfläche für olle Meckerköppe bieten".
Ich denke hier haben junge Schnösel noch etwas Lernbedarf.
Jrooß Kalle ... oller Meckerkopp
Hi!
Ich dachte bei den Transitenten geht es darum wie schnell z.B. eine Membran einem elektr. Impuls folgt. Beispiel Zischlaute/ Sibilanten. Was hat das mit der Phasenlage zu tun.
Gruß
Arnim
Ich hatte vor sehr langer Zeit die Gelegenheit einen wirklich zeitrichtigen Lautsprecher (Studiomonitor von Studer) im Vergleich zu einem herkömmlichen System zu hören. Bei normaler Musik ist der Unterschied kaum auszumachen, aber bei bestimmten Signalen wie z.B. Applaus ist der Unterschied frappant. Da ein normaler 3-Weg Lautsprecher die Impulse zeitlich verschmiert, tönt das dann eher wie ein Brei. Aber das fällt interessanterweise erst richtig auf, wenn man auf den zeitrichtigen Lautsprecher umschaltet. Dann wird der Klang plötzlich viel klarer.
Aus meiner Erfahrung ist zeitrichtig daher definitiv hörbar und ein unabdingbares Muss für den perfekten Spitzenlautsprecher. Herkömmliche Mehrweglautsprecher stimmen leider nur im Amplitudengang, machen aber Fehler im Phasengang und im Zeitbereich. Das muss man sich immer bewusst sein.
FoLLgoTT
24.10.2018, 15:57
Aus meiner Erfahrung ist zeitrichtig daher definitiv hörbar und ein unabdingbares Muss für den perfekten Spitzenlautsprecher.
Dann entzerre mal die Phase von dem 3-Weger und deine Erfahrung wird eine andere sein... ;)
Irgendwie ist das Thema ganz schön abgedriftet. Von einem frankytypischen Rechtfertigungsprovozierthema zu der völlig ausgelutschten Zeitrichtigkeit. Falls sich jemand fragt, warum ich die Phase meiner Lautsprecher entzerre: ich entferne damit einen veränderbaren Parameter und reduziere dadurch die Komplexität des Problems. Gerade bei Vielwegern beeinflussen sich die Phasendrehungen der vielen Tief- und Hochpässe gegenseitig und es ist ansonsten keine perfekte Addition möglich.
Gustav Wirth
24.10.2018, 16:05
Rechtfertigungsprovozierthema
You made my day:prost:
phase_accurate
24.10.2018, 16:24
Welcher Studer Monitor war das ?
Ich glaube nicht, dass die Gruppenlaufzeitverzerungen +- 0 us sein müssen, aber vielleicht doch niedriger als die Werte von Blauert und Laws.
Falls es für diesen Parameter einmal allgemein gültige Werte geben würde, wäre es wahrscheinlich nicht so schwierig einen Speaker zu konstruieren, der sowohl von der Abstrahlung her optimal ist wie auch vom Zeitverhalten und zwar mit einer höchstwahrscheinlich nicht allzu aufwendigen Weiche.
Interessant wäre es, dass Eingangssignal zu dem Studer Monitor mit Hilfe von Allpässen zu verfälschen, bis ein Unterschied hörbar ist.
Gruss
Charles
Das dürfte wohl die A 723 gewesen sein: http://www.revoxsammler.ch/Testberichte%20Lautsprecher/Lautsprecher%20Studer%20A723%201989_0001.pdf
Hallo,
https://www.diy-hifi-forum.eu/forum/images/metro/bw/misc/quote_icon.png Zitat von JFA https://www.diy-hifi-forum.eu/forum/images/metro/bw/buttons/viewpost-right.png (https://www.diy-hifi-forum.eu/forum/showthread.php?p=243942#post243942)
Falsche Gedankengänge.
Genau:D
https://www.diy-hifi-forum.eu/forum/images/metro/bw/misc/quote_icon.png Zitat von JFA https://www.diy-hifi-forum.eu/forum/images/metro/bw/buttons/viewpost-right.png (https://www.diy-hifi-forum.eu/forum/showthread.php?p=243942#post243942)
Es geht bei der "Zeitrichtigkeit" um Transienten. Die Betrachtung des Spektrums ist dabei nicht hilfreich, oder zumindest irreführend. Man müsste schauen, welches spektralen Anteile wirklich noch vorhanden und hörbar sind.
Eine Sängerin oder Sänger ist kein Sinusgenerator. Eine real existierende Singstimme erzeugt neben dem gewünschten Ton gleichzeitig jede Menge persönlich charakteristischer Ober- und Untertöne, die keinesfalls nur Oberschwingungen oder Variationen des Grundtons sind und auch deutlich höher gehen als das "Hohe c".
Für Musikinstrumente gilt dies natürlich auch, zwischen einem gezupften und gestrichenen Tons eines Kontrabasses liegen im Klangspektrum bei gleichem "Ton" z.B. Welten..
Könnt ihr mir das näher erklären - ich blick gerade nicht durch.
Die Argumentation auf der Webseite ist doch, dass die Stimme der Sopranistin einmal über den HT und bei tieferen Tönen über den MT übertragen wird und dadurch dass der HT beim nicht zeitrichtigen LS früher als der MT anspricht, steht die Frauenstimme bei hohen Tönen weiter vorne im Raum als bei der Übertragung im MT.
Ouelle: https://www.foersteraudio.de/man_technik.htm
...Der technische Grund für abhängig von der Tonhöhe wandernde Schallquellen liegt bei herkömmlichen Lautsprechern alleine darin, dass in dem tonalen Bereich in dem der Tiefmitteltöner und der Hochtöner etwa die gleiche Tonhöhe wiedergeben, der Hochtöner seine Schallerzeugung deutlich früher als der Tiefmitteltöner startet.
Um zu zeigen, dass diese Aussage so nicht stimmen kann habe ich oben das Spektrum einer Stimme zum Zeitpunkt x gezeigt - von Sinustönen war nie die Rede.
Eine STFT kann ich nicht bieten, aber z.B. eine Frequenzanalyse einer sehr hohen Frauenstimme über 1sec (auf die Skalierung achten) und das Spektrum zum Zeitpunkt x daneben.
46000 46001
Auch hier wird der überwiegende Frequenzbereich durch den MT übertragen (klassischer 2 oder3-Weger mit Trennung bei 2,2-2,5kHz). Wenn ich meinen MT abklemme bleibt von der hohen Frauenstimme nicht mehr viel übrig.
Das zeigt doch, dass die Argumentation der "wandernden Stimme" bei 3- oder 4-Wege so nicht stimmen kann und eher, wie schon gesagt wurde, z.B. eine vergurkte Abstrahlung als Ursache in Frage kommt.
Gruß Armin
Hallo Arnim,
nöh, die vergurkte Abstrahlung kommt noch erschwerend hinzu.
Messfrequenzen und Sinustöne sind etwas anderes als ein reales Musiksignal.
Ich habe mal ein aktives Vierwegsystem mit zeitrichtigen Frequenzsweichen komplett in Röhrentechnik gehört, wunderbar.
Der Abstrahlwinkel wirkt sich doch nur in kleinen Räumen und außerhalb des sweet spots aus.
Jrooß Kalle
Hallo Kalle!
Heißt das, dass das Aktiv einfacher geht? Mit DSP? Oder eben analog getrennt?
Boah, ich weiß echt nix.
Grtz
Arnim
Hallo,
Messfrequenzen und Sinustöne sind etwas anderes als ein reales Musiksignal.
In den Beispielen verwende ich doch ein reales Musikstück und zeige, dass dort die Frauenstimme fast ausschließlich über den MT übertragen wird, auch bei einer Frequenzanalyse von 1sec - eine STFT würde zwar kleiner Zeiträume betrachten, aber doch auch nicht mehr Info liefern.
Was übersehe ich das zu "Falsche Gedankengänge" führt?
Gruß Armin
Rechtfertigungsprovozierthema
You made my day:prost:
Ist mir doch gelungen - oder? Alle sind wieder aufgetaucht und zu meiner Freude gibt es immer wieder neuen interessanten Input oder auch Output der sonst nicht entstehen würde.
Alles gut!
sonicfury
24.10.2018, 20:36
*Lach* Franky das stimmt.
>>>
Ich habe mal ein aktives Vierwegsystem mit zeitrichtigen Frequenzsweichen komplett in Röhrentechnik gehört, wunderbar.
Der Abstrahlwinkel wirkt sich doch nur in kleinen Räumen und außerhalb des sweet spots aus.
Jrooß Kalle
"zeitrichtig" ... gilt das zeitrichtig eigentlich immer und überall an jedem Punkt im Raum?
Und das Abstrahlverhalten hat also keinen Einfluss auf den klang und wenn, dann nur einen Einfluß wenn man ausserhalb des Sweetspots sitzt?
Aha.
*Lach* Franky das stimmt.
>>>
Ich habe mal ein aktives Vierwegsystem mit zeitrichtigen Frequenzsweichen komplett in Röhrentechnik gehört, wunderbar.
Der Abstrahlwinkel wirkt sich doch nur in kleinen Räumen und außerhalb des sweet spots aus.
Jrooß Kalle
"zeitrichtig" ... gilt das zeitrichtig eigentlich immer und überall an jedem Punkt im Raum?
Und das Abstrahlverhalten hat also keinen Einfluss auf den klang und wenn, dann nur einen Einfluß wenn man ausserhalb des Sweetspots sitzt?
Aha.
Jaha, gefällt mir auch sehr gut! Zu Aha.....böse....aber richtig!
Ist mir doch gelungen - oder? Alle sind wieder aufgetaucht und zu meiner Freude gibt es immer wieder neuen interessanten Input oder auch Output der sonst nicht entstehen würde.
Alles gut!
Absolut :prost:
Um zu zeigen, dass diese Aussage so nicht stimmen kann habe ich oben das Spektrum einer Stimme zum Zeitpunkt x gezeigt - von Sinustönen war nie die Rede.
Der FFT ist das aber ziemlich egal, was Du ihr vorsetzt, sie "denkt" immer in Sinustönen. Das macht eine STFT auch, allerdings würde man die dann auch gleitend über das Signal führen, und hätte dann ein Zeit-Spektrum-Diagramm.
Das Entfernungsempfinden geschieht AFAIK durch zwei Phänomene:
1.) frühe Reflektionen
2.) spektrale Verfärbung
1.) scheint ja das zu sein, was Förster anpacken will. Bei diesen Reflektionen geht es um transiente Vorgänge, erste Wellenfront definiert die Richtung, nachfolgende Reflektionen Größe und Entfernung. Tatsächlich wäre es so, dass ein auf den Mittelton bandbegrenzter Impuls (also etwas transientes, Burst oder Wellenpaket trifft es vielleicht eher) "später" am Ohr eintrifft, als ein zwar gleich geformter, aber auf den Hochton begrenzter Impuls - auch wenn die mechanisch koinzident sind. Das ergibt sich zwangsläufig aus der höheren Gruppenlaufzeit des tieferen Impulses.
Aber: die Zeit vom Eintreffen des Originalimpulses am Ohr bis zum Eintreffen der Reflektionen, die ist in beiden Fällen wiederum gleich. Denn das ist immer die gleiche Strecke, einfache Laufzeitglieder. Deswegen ist diese Begründung für die Zeitrichtigkeit so nicht haltbar.
Wer jetzt gut aufgepasst hat wird im vorletzten Satz erkannt haben, in welchen Fällen das nicht so ist...
2.) Über die berühmten Blauert'schen Bänder lassen sich in der Lautsprecherstereofonie gewisse "Empfindungen" erzeugen. Wenn man z. B. zwischen 2 und 5 kHz anhebt, dann wirkt der Klang "präsent", er rückt "nach vorne".
FoLLgoTT
25.10.2018, 09:57
Denn das ist immer die gleiche Strecke, einfache Laufzeitglieder. Deswegen ist diese Begründung für die Zeitrichtigkeit so nicht haltbar.
...
Wer jetzt gut aufgepasst hat wird im vorletzten Satz erkannt haben, in welchen Fällen das nicht so ist...
Ja, das ist bei vertikal aufgebauten Mehrwegern bezüglich der Boden/Decken-Reflexion nie der Fall. Sitzt der Hochtöner oben, so sind die Höhen in der Bodenreflexion zu spät. Bei der Deckenreflexion dagegen zu früh. Das kann man in einer Messung sehr schön nachvollziehen.
Hier die Impulsantworten eines 2-Wegers mit Horn.
1. Gesamt
2. Hochtöner
3. Tieftöner
46016
Man sieht schön, wie der Tiefton wegen des geringeren Abstands zum Boden früher reflektiert wird.
Kripston
25.10.2018, 10:23
Hallo,
vielleicht habe ich ja was nicht richtig verstanden....:(
Sollte man bei der sogenannten Zeitrichtigkeit eines Klanges nicht auch die Eigenschaften des Gehörs berücksichtigen ?
Nehmen wir mal einen natürlichen Klang an (Stimme, gesrichener Kontrabass, was auch immer) und unterstellen mal, dass Grund- und Obertöne im gleichen Moment beginnen.
Dann kommen doch am Ohr zunächst mal etliche Perioden der Obertöne an, bis sich der Grundton soweit "vorgeschafft" hat, dass das Gehör etwas von ihm mitbekommt.
Mit anderen Worten: Hören wir von natürlichen Klängen nicht auch zuerst die Obertöne, und der Grundton "hinkt" hinterher, wird also erst später gehört ?
Wenn dem so ist, dann hören wir ja auch natürliche Klänge nicht "zeitrichtig", denn dafür müsste ja eigentlich der Grundton früher am Ohr ankommen und erst, wenn der erkannt ist, sich die Obertöne dazugesellen.
Ist, soweit ich informiert bin, nicht so schrecklich neu, dass das Gehör auch später eintreffende Spektralanteile eines Klanges nachträglich den zuerst eintreffenden Spektralanteilen zuordnet und das dann zu einer Einheit "vermengt". Das ergibt sich auch aus der Gehöreigenschaft, dass keine absoluten Phasenverläufe gehört werden.
Wenn das Alles zutrifft, dann kann ich nicht erkennen, was zusätzliche Phasenverschiebungen durch einen Lautsprecher (denn um solche geht es doch eigentlich auch bei Naturklängen) dann verschlechtern sollen, solange deren Gruppenlaufzeit unterhalb der bekannten Hörschwellen liegen.
Gruß
Peter Krips
Dann kommen doch am Ohr zunächst mal etliche Perioden der Obertöne an, bis sich der Grundton soweit "vorgeschafft" hat, dass das Gehör etwas von ihm mitbekommt.
Ich weiß was Du meinst, aber so funktioniert das Gehör dann doch nicht. Eher wie eine Filterbank, wo bei jedem Filterausgang sofort ein bandpass-gefiltertes Teilsignal vorliegt und ausgewertet wird.
phase_accurate
25.10.2018, 11:01
Ist, soweit ich informiert bin, nicht so schrecklich neu, dass das Gehör auch später eintreffende Spektralanteile eines Klanges nachträglich den zuerst eintreffenden Spektralanteilen zuordnet und das dann zu einer Einheit "vermengt". Das ergibt sich auch aus der Gehöreigenschaft, dass keine absoluten Phasenverläufe gehört werden.
Hallo Peter
Es wird oftmals begründet, dass genau diese "Zuordnerei" das Gehör ermüden würde. Mit natürlichen Klängen muss das Gehör das zwar auch tun, wie Du korrekt festgestellt hast (wegen dem langsameren Einschwingen auf dem Grundton) aber die Gruppenlaufzeitverzerrungen kommen des LS kommen dann noch dazu.
Ich bin auch der Meinung, dass die Gruppenlaufzeitverzerrungen nicht 0 sein müssen. Aber wieviel soll man tolerieren ? Werte nach Blauert und Laws oder nach IRT (+-200 Mikrosekunden zwischen 700 Hz und 7 kHz) oder noch weniger ? Es gibt z.B. auch einen Wert, den Herr Zwicky, welcher zu den Entwicklern des bereits erwähnten Studer Monitors gehört, als maximale Phasenverschiebung von 10 Grad zwischen zwei benachbarten kritischen Bändern definiert hat.
Wie schon gesagt, ist in der Informationstheorie die Kanalkapazität eines zeitlich dispersiven Kanals kleiner als diejenige eines identischen Kanals ohne Dispersion. Es geht also unterwegs Information verloren. Das ist gegeben und unumstösslich. Die Frage ist nun, ob für die Quellen (d.h. die originale Schallquelle) und Senken (Der Mensch) der Unterschied relevant ist und wenn ja, wo denn die Grenzen liegen.
Gruss
Charles
roomcurve
25.10.2018, 11:12
Lustigerweise hat Toole zu dem Thema vor wenigen Tagen in einem US Forum quasi eine schöne Zusammenfassung als Antwort zu einen "Transieten-Jünger" geschrieben:
Sorry for the delayed response, but life intervened. I’m glad that you have found some of my work useful.
I assume that you have not read my book or papers, because the answer to your “transient” and waveform issues are there, and in numerous papers by others referenced in the book. You are not the first person to believe that “transients” and the time domain, phase response, etc. are the “missing ingredients” to good sound.
After a bit of thought, I realized that this is a topic arises from time to time in forum discussions, so I decided to be more thorough than normal for a forum comment. A version of what follows will eventually make its way to the companion website to my book as an entry in a new FAQ category.
With respect to the importance of transients it is relevant that my PhD research topic was sound localization, involving countless experiments using binaural transients. Here are publications from my thesis years:
Sayers, B. McA. and F.E. Toole (1964). “Acoustical Image Lateralization Judgments with Binaural Transients”, J. Acoust. Soc. Amer., vol. 36, pp. 1199-1205.
Toole, F. E. and Sayers, B. McA. (1965a). “Laterization Judgments and the nature of Binaural Acoustic Images”, J. Acoust. Soc. Amer., vol. 37, 319-324.
Toole, F. E. and Sayers, B. McA. (1965b). “Inferences of Neural Activity Associated with Binaural Acoustic Images”, J. Acoust. Soc. Amer., vol. 37, 769-779.
It is very satisfying to me that this work is acknowledged, including a figure, in what is widely respected as the reference document on spatial perception:
Blauert, J. (1996). “Spatial Hearing: The Psychophysics of Human Sound Localization”, MIT Press, Cambridge, Mass.
The answer to your challenge about “transients” and waveforms is that we both are right. (You) Transients are important in sound localization. (Me) Waveforms can be altered by phase shifts without significant audible degradation. Small time differences are perceptible in interaural differences – binaural hearing - but that does not mean that those small time/phase/group delay differences are consequential in the sounds generating those binaural differences.
For binaural localization – in normal hearing, not stereo listening - at frequencies below about 2 kHz, both interaural time and amplitude differences are related to localization. Obviously, at very long wavelengths neither matter. At shorter wavelengths the onset of the signal matters, as well as the continuing portion. Both have the potential of providing confirming directional information, but both are corrupted by reflections in normal hearing and recordings. Nobody records or plays back music in anechoic spaces so reliability in this frequency range is low. Above about 2 kHz, the ears cannot resolve the “carrier” information in the time domain but instead attend to envelope information. In terms of sound quality – timbre – the spectral content does matter, however. In real-world reflective venues we rely on cues from these brief acoustical events to localize sound sources, which, once localized will continue to be perceived as being in those locations after the trustworthy sounds have passed – a kind of flywheel effect. It is dominant in venues like concert halls where pizzicato, and percussive sounds allow us to localize some instruments, while the sounds of others, lacking such transient elements, simply are broadly localized, sometimes seeming to fill the hall.
My early papers conclude that the ears perform what amounts to a Fourier transform on repetitive impulses. In those experiments, in headphone listening to 200 Hz impulses, listeners could simultaneously track an impulse or transient image, a “buzz”, and also the fundamental and up to four harmonics of the impulses which sounded like pure tones and which followed their own very different trajectories as a function of interaural time difference. The buzz image reached the full lateral position in 0.7 to 1.0 ms and stayed there, while at longer interaural delays the tonal harmonics oscillated from side to side in a manor appropriate to their periods. In elaborate experiments these could be individually manipulated. I remember doing Fourier calculations using a slide rule. Times have certainly changed! This discovery provided insight into how our binaural hearing system works. However, the dominant localization to a casual listener was the high frequency envelope information – the buzz. We have no knowledge of how or if the additional tonal harmonic information is used by the brain and for what purpose (spaciousness?).
As for one’s sensitivity to interaural differences, you are right that it is possible to demonstrate reactions to very small time-differences in the horizontal plane close to the median plane (0 or 180 deg). That sensitivity deteriorates for sources away from the forward/rear axis. This is sometimes thought to mean that such small differences are audible in the waveforms of musical sound. They aren’t.
All that is normal hearing. In stereo listening, only the sound from hard-panned L & R images are the only sounds to be delivered to a listener’s ears without being degraded by stereo itself – they have the highest sound quality of any image on the soundstage - one sound arriving at each ear. Any image perceived to be between the loudspeakers, including the featured artist at center, is a creation of amplitude or time panned double mono – the sound from both loudspeakers arrives at both ears, with amplitude and delay head-diffraction effects added. The result, as shown, in Figure 7.2 in my book, is that the acoustical interference at the ears generates a near 10 dB octave-wide frequency response dip around 2 kHz for a center image. Naturally phase is corrupted for any of the “soundstage” images other than hard left and right pans. This fact is obviously not known to fans of linear phase who, like the rest of us, listen to stereo. It is another good argument for a center channel.
The audibility of phase shift is discussed at some length in Section 4.8 of the book. There are several references to serious scientific efforts to determine the audibility of phase in monophonic signals (as would be the case in real life, as opposed to stereo listening). I quote my summary: “In every case it has been shown that, if it is audible, it is a subtle effect, most easily heard through headphones or in an anechoic chamber, using carefully chosen or contrived signals. There is quite general agreement that with music, reproduced through loudspeakers in normally reflective rooms, phase shift is substantially or completely inaudible. When it has been audible as a difference, when it is switched in and out, it is not clear that listeners had a preference.” Perhaps it is because in real life virtually everything we hear is amplitude and phase modified by reflections. They are normal.
My early loudspeaker evaluations published in 1986 show no evidence of phase being a factor in listener preferences. However, narrow-band glitches in phase responses associated with resonances were highly significant. See Figure 5.2 in my book or go to the source: Toole, F. E. (1986). “Loudspeaker measurements and their relationship to listener preferences”, J. Audio Eng. Soc., 34, pt.1, pp. 227-235, pt. 2, pp. 323-348.
As for the ability of humans to discern small differences in time-domain behavior, the evidence from studies of resonance detection thresholds indicates that ringing is not the dominant perceptual factor. The most reliable indicator of an audible resonance is the spectral bump in the frequency response. See Figure 4.10 in my book, and associated text. Or: Toole, F. E. and Olive, S.E. (1988). “The modification of timbre by resonances: perception and measurement”, J. Audio Eng. Soc., 36, pp. 122-142.
A waveform is completely described by the transfer function, amplitude and phase. For the integrity of waveforms both must be unaltered. We can easily demonstrate that humans are highly responsive to small amplitude changes, but not to even very large phase changes. This means that, in a fundamental sense, we do not “hear” waveforms.
You say: “Everyone should know that electrical capacitance and inductance kill transient information!” Actually, this kind of “murder” is not only legal but encouraged, as these crossover elements are used in combination with the complex impedances and complex acoustical outputs (complex meaning that they incorporate the equivalent effects of inductance and capacitance) of loudspeakers to ensure proper acoustical summation at all frequencies through the crossover regions.
You say: “Thus, besides spinoramas, loudspeakers should also specify their time-domain accuracy or resolution!” Loudspeaker transducers are minimum-phase devices, so when we see flat and smooth amplitude responses we know that the time domain is under control. An exception occurs in crossover regions, which can include non-minimum phase behavior and group delay because of driver properties and placement, but humans are notoriously insensitive to that (about 2 ms), as well as phase shift. However, we do respond to amplitude response aberrations caused by poor acoustical summation in the crossover regions – which are revealed clearly in the spinorama data, and to the ears when listening in normally reflective rooms.
The information content of the spinorama is such that Dr. Sean Olive was able to predict from anechoic data preference ratings that had a 0.86 correlation with the results of double-blind tests for 70 loudspeakers of all sizes and prices. For loudspeakers of similar size, and bass response, the correlation was 0.995 – perfection. These are predictions from anechoic measurements being compared to subjective evaluations done in an acoustically normal room. Whatever effects the room had they did not swamp the inherent performance attributes of the loudspeakers. See Section 5.7 in my book, or: Olive, S.E. (2004a). “A multiple regression model for predicting loudspeaker preference using objective measurements: part 1 – listening test results”, 116th Convention, Audio Eng. Soc., Preprint 6113. Olive, S.E. (2004b). “A multiple regression model for predicting loudspeaker preference using objective measurements: part 2 – development of the model”, 117th Convention, Audio Eng. Soc., Preprint 6190.
Conclusion: the linear distortion (i.e. amplitude and phase) information we need can be inferred from the spinorama. In stereo, the key factor is that the L & R loudspeakers deliver identical direct sounds to the listener. Phase perfection in those signals is not a requirement.
Finally, null testing. This metric is a waveform-comparison test, a comparison of input and output, and as such, it lumps all possible contributors to waveform change into a single “error” signal. As such it suffers from a common problem; it is a linear measure of performance and human listeners are not linear in their perceptions. The “error” signal will include evidence of differences between input and output waveforms that are caused by factors that are not audible.
In the previous discussion it is pointed out that phase shifts change waveforms, but phase shifts by themselves are not significantly audible. So, an “error” may be seen that is caused by something that is not audible. With loudspeakers such a test is impractical because in multi-way systems phase behavior is meaningful only in the direct sound, in the far-field of the source, at a point in anechoic space – no reflections.
Non-linear distortion has long been problematic because the numbers generated in harmonic and intermodulation distortion measurements don’t correlate well with perceptions – except for zero % . Simultaneous masking in human listeners means that all measured distortion products are not heard, meaning that the numbers are wrong. This is discussed in Section 4.9 in my book. So, a null test may show some “errors” that are not audible.
These are reasons to employ analytical metrics of performance, so that we can identify detection thresholds for individual factors, and apply them to the efficient and effective design of products.
Do you have references to scientific experiments supporting your opinions? It is good to have chewy discussions.
Enjoy your loudspeakers, whatever they are.
Wenn man es auf Deutsch lesen möchte kann ich https://www.deepl.com/translate sehr empfehlen.
Wie schon gesagt, ist in der Informationstheorie die Kanalkapazität eines zeitlich dispersiven Kanals kleiner als diejenige eines identischen Kanals ohne Dispersion. Es geht also unterwegs Information verloren.
Es geht so lange keine Information verloren wie der Kanal noch genügend Kapazität hat...
Lustigerweise hat Toole zu dem Thema vor wenigen Tagen in einem US Forum quasi eine schöne Zusammenfassung als Antwort zu einen "Transieten-Jünger" geschrieben:
Sorry for the delayed response, but life intervened. I’m glad that you have found some of my work useful.
I assume that you have not read my book or papers, because the answer to your “transient” and waveform issues are there, and in numerous papers by others referenced in the book. You are not the first person to believe that “transients” and the time domain, phase response, etc. are the “missing ingredients” to good sound. [...]
Schon ziemlich stark, was der Toole da so raushaut. Hast Du zu der Diskussion auch einen Link, bitte?
roomcurve
26.10.2018, 09:02
Gerne https://www.avsforum.com/forum/89-speakers/710918-revel-owners-thread-467.html#post56990634
vBulletin® v4.2.5, Copyright ©2000-2024, Jelsoft Enterprises Ltd.