Ongelijkheid van Hölder

In de wiskundige analyse is de ongelijkheid van Hölder, genoemd naar de Duitse wiskundige Otto Hölder, een fundamentele ongelijkheid tussen integralen en een onmisbaar instrument bij de studie van L p {\displaystyle L^{p}} -ruimten.

Laat ( S , Σ , μ ) {\displaystyle (S,\Sigma ,\mu )} een maatruimte zijn en 1 p , q {\displaystyle 1\leq p,q\leq \infty } met 1 / p + 1 / q = 1 , {\displaystyle 1/p+1/q=1,} d.w.z. q = p / ( p 1 ) . {\displaystyle q=p/(p-1).} Dan geldt voor alle meetbare reëel- of complex-waardige functies f {\displaystyle f} en g {\displaystyle g} op S {\displaystyle S} dat

f g 1 f p g q {\displaystyle \|fg\|_{1}\leq \|f\|_{p}\|g\|_{q}}

Van de getallen p {\displaystyle p} en q {\displaystyle q} hierboven zegt men dat het Hölder-conjugaten van elkaar zijn.

Het bijzondere geval dat p = q = 2 {\displaystyle p=q=2} geeft een vorm van de ongelijkheid van Cauchy-Schwarz.