Ich nahm bisher an, dass der DEQ Testsignale in die Boxen speist, die vom Mikro aufgenommen werden. Daraus wird dann die inverse Filterfunktionen auserechnet und damit dann das Signal vorverzerrt.
Zu diesen frequenzabhängigen Vorverzerrungen sollte Amplitude und Delay gehören.
Kommt also eine Frequenz von 525Hz rein, so wird diese 1.234-fach verstärkt und um 3.876 ms verzögert.
Kommt eine Frequenz von 1390Hz rein, so wird diese 3.567-fach verstärkt und 27us verzögert.
Danach wird man am Mikro messen können, dass alle Frequenzen gleichzeitig und mit gleicher Amplitude auftauchen.
Zumindest war das bisher meine Theorie über DEQs.
Umso mehr bin ich überrascht, dass genau das wohl nicht hinzuhauen scheint. Liegts an meinem Verständnis oder sind alle DEQ-Programmierer schlichtweg doof und Gucki muss denen nur mal kurz zeigen, wie das richtig geht?