Themabewertung:
  • 1 Bewertung(en) - 5 im Durchschnitt
  • 1
  • 2
  • 3
  • 4
  • 5
FIR Filter
#81
Zitat daraus:

Die Frage, ob sich die Linearisierung des Phasengangs durch eine FIR-Filterung
rentiert, kann nach der die Lautsprecherentwicklung und den Hörtests mit ei-
nem „Jein“ beantwortet werden. So zeigte zwar der AB-Hörversuch, dass es
Klangunterschiede gibt, allerdings wurden diese nur unter aufwendigen Be-
dingungen, wie schnellem Schalten der Stimuli und einer guten Raumakustik,
nachgewiesen. So beeinflusst ein Lautsprecher mit einer linearisierten Phase
durch FIR-Filterung das Ergebnis einer Musikproduktion nur kaum. Allerdings
sollte der Lautsprecher als letztes Glied der Audiosystemkette und Schnittstel-
le zwischen Mensch und Maschine so detailgetreu wie möglich arbeiten. Es ist
zu empfehlen den Vorteil der FIR-Phase in Betracht zu beziehen soweit hohe
Latenzen für bestimmte Anwendungsbereiche z.B. „Musik hören“ oder Maste-
ring akzeptabel sind
Zitieren

#82
Naja, der Unterschied kann dramatisch sein wenn der Lautsprecher dahingehend entwickelt wurde. FIR kann entscheidende Vorteile bringen, je tiefer es angewendet wird, unso schlechter ist das Ergebnis. Der Lag ist zB bei Stage Monitors oder generell live nicht akzeptabel. Wohlgemerkt bei tiefer frequenz, idR sind IIR Filter + Delay besser.

FIR Filter haben immer lag und haben IMMER pre-ring.
Zitieren

#83
(07.02.2026, 10:55)TomBear schrieb: Was man schon hat und wieder vergisst.[Bild: smile.png]

Hatte ich mal gefunden und abgespeichert, aber nie gelesen:

https://www.static.tu.berlin/fileadmin/w...h_MasA.pdf

Ist eine Masterarbeit über einen Monitorlautsprecher mit DSP. FIR kommt da auch drin vor.
Einer der Gutachter ist Anselm Goertz, dürfte also interessant sein.

Viel Spass beim lesen, Tommi

P.s.: Wegen Lipp-Sync. Hab kein AVR.

Danke für den Link

Lehrreicher Stoff  Cool

Grüße Thomas
Zitieren

#84
Vielleicht eine Anmerkung bezüglich FIR Latenz: Für Musik-Liveauftritte ist das natürlich nix aber für live TV oder Filme von Bluray oder Streaming bedeutet das nicht notwendigerweise Nachteile, da oft das Visuelle durch die Bildverbesserer in den Geräten bereits einige zig Millisekunden verzögert wird.
Zitieren

#85
Hier noch die Impulzantworten zu den in Beitrag #63 gezeigten Simulationen.

Leider kann ich Impulzantworten nicht gut Interpretieren.
Meine Aussagen unter den Bilder sind von daher mit Vorsicht zu lesen.


Impulse Response (blau) und Step responce (rot)

Für alle gilt
Trennung HT und MT @ 3000 Hz mittel Bessel 24 und Bessel 18

1) IIR Filter ohne Zeitkorrektur
HT inverted
   
Man sieht am ersten Ausschlag nach unten, dass der HT verpolt ist (was hier natürlich so soll). Verpolte HT werden je nach Frequenzweichen-Auslegen häufig eingesetzt und ich konnte bisher keine klanglichen Nachteile feststellen. Auch die Harbeth P3esr hat einen invertierten Hochtöner und der Hochton klingt gut und natürlich.
Der erste Überschwinger kommt wohl, weil nicht HT und MT nicht zeitlich alligned (meine Vermutung)

2) IIR Filter mit Zeitkorrektur HT zu MT
HT inverted
   

Sieht ähnlich aus wie 1) aber ohne Überschwinger

3) FIR-Filter für x-over: linear Phase Filter für x-over HT und MT
HT not inverted
   

Der negative Ausschlag durch den invertieren Hochtöner ist weg (bei linear Phase Bessel Filter keine Invertierung notwendig)
Dafür sieht man jetzt leicht das Pre-Ringing. Es scheint mir allerdings minimal, da die Filter relativ Hochfrequent angesetzt sind.

4)  FIR-Filter für x-over + FIR Bessel Phase linearization Filter 4th order über HT und MT
HT not inverted
   
Gleizeitigeres Ein- und Ausschwingen über einen breiten Frequenzgang. Dafür mehr Pre-Ringing. Nichts ist umsonst.


Ich denke, man sollte nicht versuchen "klanglich" zu viel in die Impulse Response Bilder rein zu interpretieren.
Der größere klangliche Einfluss der verschiedenen Settings ist aus meiner Sicht in den Bilder in Post #63 im Energiefrequenzgang und im Bündelungsverhalten 'sichtbar'.
Zitieren

#86
Danke. Ist doch aufschlussreich und so, wie es sein sollte bei FIR. Und ja, aus der Sprungantwort kann man keinen Klang interpretieren. Es gibt grauslige Sprungantworten durch einen Filter 4. Ordnung, was aber absolut unhörbar ist. Leider verleitet so eine Messung, da was rein zu interpretieren.
Zitieren

#87
(06.02.2026, 13:59)walwal schrieb: Latenzen kann doch der AVR ausgleichen mit Lip.Sync, oder reicht das nicht?
Meines Wissens nach dient LipSync dazu, den Ton ans durch diverse Bildverschlimmbesserer eines modernen TVs verzögerte Bild anzupassen. LipSync kann also Audio verzögern, aber nicht das Bild.

Nach ein bisschen KI-Befragung scheint es allerdings z.B. mit VLC möglich zu sein, für den Ton ein negatives Delay für den Ton anzugeben, wobei technisch gesehen dann tatsächlich das Bild verzögert wird.
Viele Grüße
Michael
Zitieren

#88
(07.02.2026, 11:36)Dexan schrieb: FIR Filter haben immer lag und haben IMMER pre-ring.

Nein, haben sie nicht. Man kann ein herkömmliches Analog- oder einen IIR-Filter samplen und die daraus gewonnen Taps als FIR Filter verwenden. Kein Lag, kein Pre-Ringing. Erst die Linearphasigkeit bringt das rein,das Lag kann zusätzlich noch durch die Implementierung hinzukommen.
Zitieren

#89
Gerade entdeckt: https://github.com/VilhoValittu/CamillaFIR ‎<- Schaut ganz nett aus.
Zitieren

#90
Hallo in die Runde,
ich würde gerne meinen Senf dazu geben – nicht als Pro- oder Contra-Position und nicht als „Meinung“, sondern als repräsentative praktische Erfahrung. Die Einleitung ist nur dazu da, dass ihr seht, dass ich das ernst meine. Wer will, kann direkt zur Schlussfolgerung springen.

1) Vorgeschichte (warum ich mich damit überhaupt so lange beschäftigt habe)
2007 fing ich an, mich für das Thema zu interessieren. Damals noch analog. Sprungantworten störten mich schon immer. Breitbänder klangen für mich aber „falsch“. Ich wollte Mehrwege mit korrekter Sprungantwort – unbedingt.
Ich versuchte alles auf Brechen und Biegen: Filter erster Ordnung, Annäherungen per analoger Technik, aktiv mit IIR, und diverse Kompromisse nach Lecleach oder Kreskovsky. Dazu hier ein Beispiel:
https://www.audiosciencereview.com/forum...df.251100/
Am Ende debattierte ich sogar mit Entwicklern. Und nach einem Jahr manischen Krampf an Versuchen (intensiv!) gab ich auf. Vorerst. Ich wollte es real, messbar, im Raum – nicht nur theoretisch („schaut, meine Weiche hat 6dB“).
2007 traf ich Uli Brüggemann. Er schien das Thema zu beherrschen. Aber seine Software war mir damals zu kompliziert und zu teuer für meine Junggesellenressourcen.
2015 begann ich, mich intensiver in FIR einzuarbeiten. Ich kaufte eine Acourate-Lizenz und fuchste mich manisch hinein – beinahe täglich bis nach Mitternacht. Meine Freundin (ja, hatte ich trotzdem) hielt mich schon für verrückt (blieb aber vorerst). Nach ca. 1 Jahr verstand ich grob, worum es geht. Und nach 5 Jahren konnte ich es sauber in der Praxis umsetzen. Ich behaupte mal: Das Thema ist für mich „abgehakt“. Positiv wie negativ.

2) Erste objektive Praxisprüfung im Raum (2021): Umschalten „Phase korrekt“ vs „Phase fehlerhaft“
2021 wollte ich das Ganze objektiv prüfen. Ich hatte einen 5-Wege-Lautsprecher recht nah an der Idealphase und die Frequenz-Raum-Antwort sauber.
Mit Acourate kann man relativ schnell die gesamte Korrektur in quasi-IIR (minphasig) wandeln. Man erhält so eine Korrektur mit Phasenfehlern, aber ohne Frequenzgangveränderung oder Abstrahlveränderungen (durch Weichen-Änderungen). Dadurch kann man sofort umschalten.
Das Ergebnis war für mich überraschend: Ich konnte keinen Unterschied hören in der räumlichen Darstellung der Bühne (Breite, Tiefe, Größe, Holografie, Differenziertheit etc.) – in gar keinem Aspekt. Alles stand 1:1 wie festgenagelt. Und gerade bei Räumlichkeit sagt man der Phase ja oft die größten positiven Einflüsse nach. Warum dieses Vorurteil so populär ist, erschließt sich mir nicht. Schließlich sind Weichenfehler und Korrektur links und rechts identisch.
Wesentlich wahrscheinlicher wäre für mich ein Einfluss auf die Impulswiedergabe, weil Phasenfehler das Ausschwingen beeinflussen. Verzögerung ähnlich wie Bassmoden im Raum, als Beispiel. Aber auch das konnte ich nicht raushören. Vielleicht, weil der Raum es 1000-mal schlimmer überdeckt? Wäre technisch logisch…

3) Der finale Test: Kopfhörer statt Raum (damit wirklich nur „Phase“ übrig bleibt)
Man könnte natürlich einwenden: Vielleicht waren meine Umstände nicht gut genug (LS, Raum, Gesamtqualität). Also wollte ich einen Test, reduziert auf das Wesentliche.
Dazu nutzte ich hochwertige Kopfhörer: Beyer 990 und Stax SR700. Kein Raum, keine Moden, kein Nachhall, der maskieren könnte. Auch Verzerrungen (IMD, harmonisch) sind i. d. R. deutlich geringer. Lediglich oberhalb 6kHz wird der Frequenzgang bei Over-Ear unzuverlässig -> liegt aber ausreichend hoch, um nicht ins Wesentliche zu fallen.
Wichtig: Die Sprungantwort eines Kopfhörers ist nahezu ideal – eine extrem breitbandige 1-Kanal-Quelle ohne Exzessphasen-Fehler, bis auf marginale Streuung im winzigen Bereich des Hochtons. Nicht aber im Bereich, wo das Ohr phasenempfindlich ist: unterhalb 1000Hz quasi nie.
Für den objektiven Vergleich müssen wir also nur die Phasenfehler in den Kopfhörer hineinbringen, richtig?
Das ist mit Acourate ziemlich einfach. Man kann marginale bis surreal aggressive Fehler von 10-Wege-Weichen 10ter Ordnung simulieren, bei Ausgabe einer einzigen (verzerrten) Impulsantwort, die trotzdem einen perfekt linearen Frequenzgang durchreicht – von 0Hz bis „unendlich“ hoch.

4) Was hört man dann wirklich? (und wonach muss man überhaupt suchen)
Erstes Fazit: Normale Fehler sind quasi nicht hörbar.
Kurzer Realitätscheck: Worauf konzentriert man sich überhaupt?
Aus einem früheren Test wusste ich: Preringing ist schlimmer als Postringing (wichtig: nicht überkorrigieren, lieber ein paar Reste der Phasenfehler drin lassen). Und ich wusste auch, woran man es am ehesten erkennt: an extremer Filtersteilheit.
Bei 1000dB/Oktave -> Oh ja. Das klingt gruselig, wie ein Roboter. Der Bass macht nicht mehr „Tock“, sondern „wwwwwwwwuupp“. Lustig! Es wirkt, als ob jemand die Drums gegen einen kaputten Synthesizer ausgetauscht hätte.
Bemerkenswert: Bei klassischer Musik (weniger Transienten, mehr eingeschwungene Zustände) habe ich sogar 1000dB/Okt nicht herausgehört.
Fokus war für mich damit klar: Transienten-Schärfe bzw. -Trockenheit, wie auch erwartet. Überraschend nur, dass es im Tiefton so viel stärker auffällt als im Hochton.

5) Zurück zum eigentlichen Thema: Postringing durch Exzessphase analoger Weichen
Ab 96dB/Oktave (16te Ordnung) fing es an. Aber nur im Tiefton, unterhalb 200Hz. Und auch nur, wenn man sehr scharfsinnig konzentriert ist und viel hin- und herschaltet. Dann werden die Drums „maaaaarginal“ dicker – bei gleichem Frequenzgang. So gefühlt wie 0,5dB Bassboost. Also wirklich ein Hauch von Nichts.
Ernüchterndes Resultat. Der ganze Aufwand nur für solche Nuancen?

6) Schlussfolgerung / Empfehlung (was ich daraus mitnehme)
Muss jeder für sich entscheiden. Ich empfehle nur: Das derart objektiv, rational, vergleichbar, quasi wissenschaftlich zu erforschen. Nicht mit „ähnlichen“ Weichen, die neben „irgendwie anderer Phase“ auch noch anderes Abstrahlverhalten haben – und dann über lange Umschaltzeiten (bis zu Minuten) mit dem Bauch zu hören (samt Erwartungshaltung).
Ich mache es trotzdem gerne – aus Spaß an der Freude. Optimierungszwang. Perfektionismus. Nehm ich gerne mit, wenn’s geht. Aber wenn es nicht ins Konzept passt: kein Beinbruch.
Grüzi
Zitieren

#91
danke dir,  josh_cpct

toller Erfahrungsbericht, ... ich habe an meiner letzten Box auch alles probiert und in naher zukunft kommt auch noch die FIR-BoxX mt einer Abstimmung. Da bin ich jetzt schon gespannt. Vielleicht auch ernüchternd, aber das möchte ich selbst in Erfahrung bringen. 
Aktuell mit einer Passivweiche (eigentlich Halbaktiv, denn die untere Trennung ist aktiv), möchte ich noch eine aktivweiche stricken und danach mit der FIR-BoxX die dritte Möglichkeit. Es ist ein Dreiwegerich aus 10 Zoll Seitenbass in BR und TI100 und G25NDWG. Da bin ich enorm gespannt ob man noch mehr herausholen kann, und ob sich der Kosten(-Aufwand) lohnt. 

Gruß Timo
Zitieren

#92
Warum stört es nicht, wenn die erste Sinuswelle "zu spät" ankommt, zB bei zwei Chassis mit einer Weiche 4. Ordnung um eine Sinuswelle?

Antwort:

Hörschwelle: Ein Ton bei 1000 Hz muss mindestens etwa 10 bis 20 Millisekunden (ms) lang dauern, um als hörbar wahrgenommen zu werden.

Also erst ab 10 sinuswellen hört man den Ton

Deshalb......[Bild: wink.png]
Zitieren

#93
Hallo Josh,

danke für deinen Erfahrungsbericht!
Zitieren

#94
Hallo walwal,

Zitat:Hörschwelle: Ein Ton bei 1000 Hz muss mindestens etwa 10 bis 20 Millisekunden (ms) lang dauern, um als hörbar wahrgenommen zu werden.

Also erst ab 10 sinuswellen hört man den Ton

hast Du eine Quelle zu dieser Aussage?

Grüße,
Christoph
Zitieren



Gehe zu:


Benutzer, die gerade dieses Thema anschauen:
2 Gast/Gäste

Deutsche Übersetzung: MyBB.de, Powered by MyBB, © 2002-2026 Melroy van den Berg.