Im I.Kapitel wird eine Grundgesamtheit ΩN betrachtet, die aus N Objekten gleicher Auswahlchance besteht. Untersucht wird ein reellwertiges Merkmal X , welches N Beobachtungswerte liefert, von denen m paarweise verschieden sind. Mit λN wird die maximale absolute Häufigkeit der m paarweise verschiedenen X-Werte bezeichnet. Aus ΩN wird eine Stichprobe vom Umfang n durch Ziehen ohne Zurücklegen entnommen. Der Satz I.1 liefert eine Schranke B(n, N, λN / N ), die den Euklidischen Abstand zwischen den gemeinsamen Wahrscheinlichkeitsfunktionen der Stichprobenvariablen beim n-maligen Ziehen ohne bzw. mit Zurücklegen aus ΩN nach oben abschätzt. Eine Vor-Version dieser Abschätzung wurde vom Autor bereits auf der Internationalen Tagung der Deutschen Statistischen Gesellschaft im Jahre 2000 vorgestellt. Die Abschätzung gilt bei jeder Skalierung von X sowie für variables m = m (N). Die Abschätzung ist scharf, denn für die Klasse der auf ΩN bijektiven Merkmale (m=N) gilt das Gleichheitszeichen - in diesem Fall ist der o.g. Euklidische Abstand der Wahrscheinlichkeitsfunktionen gerade der Vergleich der Auswahlwahrscheinlichkeiten von n Objekten zwischen dem Ziehen ohne und dem Ziehen mit Zurücklegen aus ΩN. Als Folgerung aus der Abschätzung lassen sich zwei Grenzwertsätze formulieren: (i) Gleichmäßige Konvergenz des o.g. Euklidischen Abstandes der Wahrscheinlichkeitsfunktionen gegen Null mit wachsendem N (zu festem n), wobei m = m (N) variieren darf. (ii) Gleichmäßige Konvergenz des Euklidischen Abstandes zwischen den Wahrscheinlichkeitsfunktionen der m-dimensionalen Hypergeometrischen Verteilung und der m-fachen Multinomialverteilung gegen Null mit wachsendem N , wobei m = m (N) variieren darf. Beide Mindest-Konvergenzgeschwindigkeiten betragen O (1/N). Im Vergleich mit diesbezuglichen Ergebnissen von Feller (1950 und später) sowie Johnson/Kotz/Balakrishnan (1997) erreicht der Autor eine Verbesserung und Verallgemeinerung. Im II.Kapitel wird die maximale relative Häufigkeit ( λN / N ) abgeschätzt unter gewissen Voraussetzungen, unter denen sich eine Beziehung zur Kolmogorov / Smirnov - distance IDN nutzen läßt; IDN := supt | IFN ( t ) - F ( t ) | mit der Empirischen Verteilungsfunktion IFN und deren fast sicherer Grenzfunktion F. Durch Anwendung von DKW-Ungleichung bzw. Smirnov-LIL auf die Abschätzung von IDN erhält man verschiedene Versionen der Abschätzung von ( λN / N ). Es wird gezeigt, dass unter bestimmten Voraussetzungen ( λN / N ) gegen die maximale Sprunghöhe von F konvergiert. Im III. Kapitel wird eine der tragenden Voraussetzungen des Bootstrap- Grenzwertsatzes von Strobl (1995) näher betrachtet: Die Integral-Darstellung eines gewissen Frechet-Differentials. Durch Zerlegung des Maßraumes \W wird gezeigt, wann diese Voraussetzung erfüllt ist, wenn die zugrundeliegende Norm in \W auf einem speziellen Funktionenraum basiert. Das Ergebnis enthält als Sonderfall ein diesbezuglich von Serfling (1981) angegebenes Resultat.
In the 1st chapter we look at a set ΩN , that consists of N objects with the same choice probability, respectively. We investigate a real feature X , which provides N values, within m pairwise distinct values; λN is the maximum of the absolute frequencies of the m values. We draw a random sample out of ΩN of size n without replacement. Theorem I.1 provides a bound B(n, N, λN / N ) ; this bound estimates the Euclidean distance between the joint probability functions of the sample variates at n-fold drawing with andm without replacement out of ΩN to the top. A pre-version of this estimation we've proposed at the International Congress of the Deutsche Statistische Gesellschaft in 2000 already. The estimation may be used for every scaling of X and for varying m = m (N) . The estimation is sharp, since for the class of those X that are mapping ΩN bijectively (m=N) , the equation sign is true - in this case the Euclidean distance of the joint probability functions (see above) is even the Euclidean distance of the choice probabilities of n objects between drawing with and without replacement out of ΩN. Corollaries from the estimation are formulations of two limit theorems: (i) Uniform convergence of the Euclidean distance of the joint probability functions (see above) against zero with increasing N , permitting varying m = m (N). (ii) Uniform convergence of the Euclidean distance between the probability functions of the m-dimensional Hypergeometric distribution and the m-variate Multinomialdistribution against zero with increasing N , permitting varying m = m (N). The convergence order of both limits is O(1/N) at least. In comparison with related results by Feller (1950 and later) and Johnson/Kotz/Balakrishnan (1997) we obtain better and more generalized statements. In the 2nd chapter we estimate the max. relative frequency (λN /N) under some conditions, that enable us to use the Kolmogorov / Smirnov - distance IDN , IDN := supt | IFN ( t ) - F ( t ) | with the empirical distribution function IFN and her almost sure limit function F . Applying the DKW-inequality or the Smirnov-LIL to the estimation of IDN , we get some different versions of the estimation of (λN /N). We show that, under some conditions, (λN /N) tends to the maximally jump of F. In the 3rd chapter we are concerned with a fundamental requirement of the Bootstrap limit theorem of Strobl (1995): The integral representation of a particular Frechet differential. The concept of a decomposition of the measure space \W allows us to give the conditions, under which this requirement is filled, for a norm in \W indexed by a special function space. The proved result includes a relevant result to this of Serfling (1981) as a special case.