Nomologische Hypothesis Statement

MPIfG Working Paper 03/3, April 2003

 

Mechanisms in the Analysis of Macro-Social Phenomena

 

Renate Mayntz , Max Planck Institute for the Study of Societies

 

 

 

 

Abstract

 

The paper is a contribution to a forthcoming special issue of the Journal Philosophy of the Social Sciences, edited by Andreas Pickel. The term (social) mechanism can be found frequently in recent social science literature, but only few authors have attempted to spell out systematically what exactly the term refers to. The paper begins by trying to close this gap. Use of the term (social) mechanism is the hallmark of an approach that is critical of the emphasis on correlational analysis, and on the covering-law model of explanation. The term mechanism, it is argued, should be used to refer to recurrent processes generating a specific kind of outcome or event; mechanism statements are accordingly statements about recurrent processes. Explanation of social macro phenomena by mechanisms typically involves causal regression to lower level elements, as stipulated by methodological individualism. But while we already have a good-sized tool-box of mechanism models at hand to explain emergent effects of different forms of collective behavior, we lack a similarly systematic treatment of generative mechanisms where structural configurations and corporate actor constellations play the decisive role in the production of an effect.

 

 

 

Zusammenfassung

 

Das Papier wird als Aufsatz in einem von Andreas Pickel herausgegebenen, in Vorbereitung befindlichen Sonderheft der Zeitschrift Philosophy of the Social Sciences erscheinen. Der Begriff (sozialer) Mechanismus findet sich relativ häufig in der neueren sozialwissenschaftlichen Literatur, aber nur wenige Autoren widmen sich einer systematischen Begriffsklärung, wie sie hier einleitend versucht wird. Mit der Verwendung des Begriffs (sozialer) Mechanismus ist gewöhnlich eine Kritik am korrelationsanalytischen Ansatz und an nomologisch-deduktiver Erklärung verbunden, die den Prozesscharakter sozialer Wirklichkeit ausblenden. Der Begriff Mechanismus, so wird argumentiert, sollte speziell zur Bezeichnung wiederkehrender Prozesse dienen, die am Zustandekommen bestimmter Makrophänomene beteiligt sind. Eine Erklärung von Makrophänomenen durch Mechanismen geschieht gewöhnlich durch kausale Regression auf eine niedrigere Systemebene. Das entspricht dem Modell des methodologischen Individualismus, der allerdings durch die Reduktion auf individuelles Handeln jenen Transformationsmechanismen kaum gerecht wird, bei denen strukturelle Konfigurationen und Akteurkonstellationen die kausal entscheidende Rolle spielen.

 

 

 

Contents

 

 

 

 

1Why Study Mechanisms?

 

Thinking in terms of mechanism has a venerable tradition. It can be traced to seventeenth century realist philosophy "which brought with it a much closer attention to the mechanics of scientific experimentation and laid great stress on how physical laws are explained by the action of underlying, microscopic mechanisms" (Hedström/Swedberg 1996, 285). In today's social sciences, an explicit search for and interest in mechanisms is typically advocated by sociologists and philosophers of science who oppose the dominant tradition of correlational (or multivariate) analysis in quantitative research. The critique of correlational analysis has been aptly summarized by Mahoney (2001, 575-577); correlations, even non-spurious correlations in which the time order is well established, are inherently limited representations of causal processes. "[P]ositivists since Hume ... have redefined causation as regular conjunction or succession", Bunge (1997, 423) states, but the aim is "to step away from the description of regularities to their explanation" (Pawson 2000, 288) and to look for the mechanisms underlying such associations. This argument is made in similar form by most authors who are critical of the explanatory power of correlational analysis, the variable-centered type of theorizing.

 

The general methodological problem of the explanatory potential of correlational analysis is particularly acute for research dealing empirically with such macro-phenomena as regime transformation, the welfare state crisis, or European integration. Where research on such topics aims to go beyond description and produce general theoretical statements, it is confronted by the well-known small-N problem. To solve this problem, techniques have been developed that permit the formulation of general statements on the basis of a systematic and preferably quantitative comparison of a small number of cases. Examples are the increasingly popular pooled time-series cross-section analysis (Beck/Katz 1995), and Ragin's analytical techniques based on Boolean algebra and fuzzy set theory (Ragin 1987, 2000). These formalizing and quantifying approaches have been criticized on technical grounds such as the validity of their operationalizations, but also because they only permit to make statements about the co-variation of properties, while the nature of the causal relationship involved remains a black box. To overcome this explanatory deficit, an approach that has variously been called "systematic process analysis" (Hall 2003) or "causal reconstruction" (Mayntz 2002) is being advocated. Causal reconstruction does not look for statistical relationships among variables, but seeks to explain a given social phenomenon - a given event, structure, or development - by identifying the processes through which it is generated. Causal reconstruction may lead to a (more or less complex) historical narrative, but in its theoretically more ambitious version, causal reconstruction aims at generalizations - generalizations involving processes, not correlations. The identification of causal mechanisms is the hallmark of such an approach.

 

If mechanisms are crucial in the causal reconstruction of social macro-phenomena, the concept should be fashioned as a sharp analytical instrument. But a survey of the relevant empirical and methodological literature soon bogs down in a mire of loose talk and semantic confusion about what "mechanisms" are. There are not many social scientists or philosophers of science who have tried to deal with the topic more systematically. Among social scientists, the names most frequently mentioned in this connection are Boudon, Coleman, Elster, Hedström and Swedberg, Merton, and Stinchcombe. Even among these authors there is no agreement about the defining criteria of "(social) mechanism". A still incomplete list of definitions assembled by Mahoney (2001, 579-560) counts 24 different definitions by 21 authors. Mechanisms are considered to be lawful processes, yet they are also opposed to laws. The term mechanism is moreover applied to a host of highly diverse phenomena - from rational choice to the French revolution, from driving forces (or factors) such as social norms (e.g. Elster 1989, Petersen 1999, 63) to outcomes of interaction processes such as voluntary agreement (Knight 1995, 105). Part of the semantic noise thus created follows from the ambiguity of many of our basic social science concepts, concepts that can refer both to a process and to a (static) outcome. "Cooperation" and "competition" are but two of many examples. Of course it is entirely legitimate to label a mechanism that has been spelled out in detail by a noun that refers to a process, an outcome, or a factor. But to use a terminological label merely to allude to a process that remains unspecified has no more explanatory value than the simple statement of a correlation. This article is a plea for a more disciplined use of the concept of social mechanism. To this purpose, I shall discuss some of the more confusing issues in the use of the concept, especially as it is used in the causal reconstruction of social macro-phenomena. The distant goal of this discussion is an analytical frame to guide explanation in terms of mechanisms. This goal can of course not be reached in this article, but hopefully a road leading towards it will have been charted in the end.

 

 

2What Mechanisms Are, and What They Are Not

 

The term "mechanism" is used both to designate a certain class of real phenomena (mechanisms are such and such, they do such and such), and to designate a class of (causal) propositions referring to such phenomena. Statements about social mechanisms are often considered to be the building blocks of middle-range theories, advocated by Merton (1957) to avoid the vain search for social laws. Merton's view that mechanisms constitute the middle ground between description and social laws was quickly taken over by Karlsson (1958), and has since been reiterated, among others, by Hedström and Swedberg (1996, 282-284), Elster (1998), Pawson (2000), and Esser (2002). To contrast mechanisms to social "laws" means to oppose an explanation by mechanisms to the covering-law model of causal explanation. The covering-law model is often criticized for the same reason brought against correlational analysis: A nomological-deductive explanation involving lawlike propositions "supplies no understanding" (Bunge 1997, 412), it "give(s) no clue whatsoever as to why" a relationship exists: "Covering-law explanations in the social sciences therefore normally are 'black-box' explanations" (Hedström/Swedberg 1996, 287). Unlike correlations, however, the "laws" used in nomological-deductive explanations are (often implicitly) taken to be characterized by a high degree of generality, if not universality. This is a second, and different, issue raised by the covering-law model: In the social world we do not find anything like the universal laws of physics. Physical laws presuppose elements that are invariant in time and space, but in the social world, elements vary substantially in historical time and cultural space. Instead of vainly looking for "laws" that do not exist in the social world, we are advised to look for social mechanisms, which are perceived as regularities of a less general scope than laws. [1] This middle-ground argument is, however, only plausible if the terms "law" and "lawful" refer to propositions of near-universal applicability. But the logic of a nomological-deductive explanation does not necessarily require universal and deterministic laws; the law-like proposition "If A, then B" may explicitly include a ceteris paribus clause that limits its applicability in time and space. On the other hand, the middle-ground argument also ignores the fact that statements of mechanisms vary widely in their degree of generality (or abstraction). The main difference between a mechanism approach and a covering-law approach is not that mechanism statements are less general than the propositions in a nomological-deductive explanation, but that in the analytical theory of science (e.g. Nagel 1961, Hempel 1965), "laws" are basically general statements about co-variation, i.e. "laws" point out causal factors, and not processes.

 

Ontologically speaking, the term mechanism refers to recurrent processes linking specified initial conditions and a specific outcome. This holds for mechanisms in general; in the case of social mechanisms, social phenomena are to be explained. If social mechanisms refer to recurring processes, mechanism concepts must be "truncated abstract descriptions" (Machamer/Darden/Craver 2000, 15). Statements of mechanisms are accordingly generalizing causal propositions. This criterion is, however, not unanimously accepted. Occasionally the term mechanism is also applied to unique (historical) causal chains. Boudon even includes this possibility in his definition when he calls a social mechanism (SM) "the well-articulated set of causes responsible for a given social phenomenon. With the exception of typical simple ones, SMs tend to be idiosyncratic and singular" (Boudon 1998, 172). Helmström and Swedberg (1996, 289) on the other hand require "some generality" in their definition, and at least implicitly most authors agree that mechanism statements are causal generalizations about recurrent processes. In this sense the term shall be used in this article.

 

Substantively speaking, mechanisms state how, by what intermediate steps, a certain outcome follows from a set of initial conditions. A mechanism provides a clear causal chain, it is "concrete, lawful, scrutable" (Bunge 1997, 439). While we may designate or label such processes by a single term, a mechanism is only identified when the process linking an outcome and specific initial conditions is spelled out. Causal propositions about mechanisms are correspondingly complex formulations. It is, for instance, not enough to state that ideas etc. influence behaviour; interpretive theories require "a plausible mechanism to account for how symbols, traditions, rituals, and myths influence social and political interaction" (Johnson 2002, 227; emphasis added).The specification of causal chains is what distinguishes propositions about mechanisms from propositions about correlations.

 

The notions of "causal chain" and "underlying process" imply that there should not be too much proximity between cause and effect. If a cause produces an effect without intermediate steps, no mechanism is involved, and the stated relationship even runs the danger of being a tautology (Kitschelt 2003). The term mechanism should therefore be reserved for processes involving linked activities of several units or elements, and not applied to "unit acts". As Elster (1989, 7) puts it, a causal mechanism typically has "a finite number of links". Most authors seem to share this view, even if only implicitly, as when they say that a mechanism involves a series of events linking certain initial conditions with a given effect (e.g. Little 1991, 15). In general discussions of the mechanism concept, the links are conceived of as "entities" and "activities" - still very much in the seventeenth century tradition of early mechanistic thought, but applicable also to social mechanisms. Entities and activities are organized in a process that leads "from start or set-up to finish or termination conditions" (Machamer/Darden/Craver 2000, 3). Craver, who uses examples from biology, adds that mechanisms have an "active organization", which is "... sustained by their characteristic spatial and temporal organization" (Craver 2001, 60).

 

Whereas the spatial organization of the components is of obvious importance for biological mechanism, its role in social mechanism has never been systematically discussed. Temporality, on the other hand, is clearly a characteristic of social mechanisms: social mechanisms are recurrent processes taking place in time. This, however, does not mean that mechanisms are always organized in a linear way, causal chains in which one element after the other is activated, as in a wave rippling through a lake, or a chain reaction involving each component only once. Mechanisms may consist of a sequence of actions involving different social elements, as in a diffusion process. But they can also involve repeated actions of the same elements, as in an escalation process. The causal chain can contain feedback loops, and each unit involved in the process may undergo changes (Büthe 2000, 485). The causal structure of mechanisms can, in other words, be linear as well as non-linear.

 

In addition to the defining criteria just discussed, mechanisms are occasionally defined as unobservable, and as processes that only occur in a system. In both cases I would argue that just as mechanisms can be, but must not be linear, they also can be, but must not be unobservable and part only of systems. The view that mechanisms are unobservable is held, for instance, by Mahoney. For him, "[c]ausal mechanisms are posited relations or processes that the researcher imagines to exist", they are "unobservables" (Mahoney 2001: 581; emphasis added). This view has its roots in seventeenth and eighteenth century realist philosophy, which reacted to the failure to actually observe causes in experimental research that had previously been conceived as external forces. [2] Observability is, however, a variable: it varies between segments of reality, and in the natural sciences it also improves over time with the development of sophisticated research technology. Social mechanisms are de facto often theoretically constructed, but they are not necessarily and by definition unobservable. This also seems to be the position of Bunge (1997, 420: "most mechanisms are hidden") and of Hedström and Swedberg (1996: 290).

 

Bunge (1997, 414) defines mechanism as "a process in a concrete system", and throughout the article he talks only about processes within systems. If, however, we take the concept of system seriously and define systems restrictively, it is obvious that mechanisms do not logically presuppose a systemic context - even if they do play a crucial role in system functioning. Unless everything social is by definition considered to constitute a system or to be part of a (social!) system, we must admit that mechanisms can also operate outside of a systemic context. Just as has been argued for observability, the embeddedness of mechanisms in a systemic context should be seen as a variable, a property that may, but need not be there in order to call something a social mechanism.

 

 

3Mechanisms as Causal Links

 

If the aim of a study is the causal reconstruction of a specific macro-phenomenon or a class of macro-phenomena (e.g. contentious episodes), the search for mechanisms starts not with a correlation, but with the identification of an explanandum. The term "generative mechanism" underlines this explanatory strategy. Processes generally do not come as discernable, "given" units; they have no naturally given beginning and end. We artificially pick out a sequence, a part of the ongoing process, and try to explain how it has come to the particular point that is our explanandum. Especially in historical research, the clear specification of the explanandum is the only methodological justification for making choices about where to begin an analysis (Büthe 2000: 487-488). The explanandum may be an event like a riot or a specific policy decision, a rate (e.g. of unemployment), a relational structure (e.g. neo-corporatism), a statistical distribution (e.g. the demographic structure), and even a process (e.g. of technological development or institutional change). In each case, explanation means causal reconstruction, a retrospective process-tracing that ends with the identification of crucial initial conditions.

 

There is no agreement in the literature whether the formulation of a mechanism includes or excludes initial conditions and outcomes, i.e. whether the term "mechanism" refers to a (recurrent) process from beginning to end, or only to that part of it which "links" beginning and end. Machamer, Darden and Craver (2000) use the term explicitly for entire processes; for them, a mechanism consists of set-up conditions, intermediate activities, and termination conditions. Hedström and Swedberg (1996) on the other hand use the term "mechanism" to refer to that part of a process that "links" cause (or input, as they say) and effect (outcome), or formally expressed: I - M - O. The mechanisms M serves to explicate an observed relationship between specific initial conditions and a specific outcome. Pawson's formula "context - mechanism - outcome" can be understood in the same way (Pawson 2000). The notion of mechanisms as intervening between I = the explanans and O = the explanandum takes correlational analysis visibly as point of departure, and critically develops an alternative to it by adding the causal link M. But care must be taken not to equate an intervening mechanism with an intervening variable, as it is used in correlational analysis. As Mahoney states, quoting seven authors as evidence, "[a] causal mechanism is often understood as an intervening variable or set of intervening variables that explain why a correlation exists between an independent and a dependent variable". But, he continues, "this definition unfortunately does not go beyond correlational assumptions" (Mahoney 2001, 578). In fact, an intervening variable is a variable that is added to increase the total variance explained in a multivariate analysis. Intervening variables are not process links. [3]

 

If a mechanism is represented as linking two events or system states, contingency resides in the initial (or context) conditions that are not part of the mechanism itself. The difference between the definition of mechanisms as processes merely linking, or including, variable initial and terminal conditions may be moot, but it does reflect two different cognitive interests: the interest in that which is constant in a mechanism, or the interest in the variability of its operation. The first perspective, expressed in the I - M - O model, also underlies Elster's often quoted definition of mechanisms as "frequently occurring and easily recognizable causal patterns that are triggered under generally unknown conditions or with indeterminate consequences" (Elster 1998, 45 ). The apparent impossibility to say when a mechanism will be triggered is the result of not including an important initial condition in its formulation. A virus cannot start an epidemic in a fully immunized population, nor is a spark enough to trigger an explosion; the powder must also be dry.

 

It does not make any difference for a substantive analysis whether outcomes and initial conditions are included in the formal definition of a mechanism or not, as long as we look at the whole process and recognize that "inputs" and "outputs" can vary, making outcomes contingent on variable initial conditions. The initial conditions in a proposition are stated explicitly; they are known conditions, and outcomes vary in predictable ways with changes in these conditions. Of course there is also some contingency in outcomes following from unknown factors included in the ceteris paribus clause that holds for mechanism statements as for all except truly universal propositions, but this is evidently not what the "I" in the I - M - O model refers to. Though in different ways, both the I - M - O model and Elster's definition suggest that there is something constant in mechanisms, something that may not change if the mechanism under review is not to loose its identity and become a different mechanism altogether. If inputs and outcomes are permitted to vary, it is the sequence of steps, the causal structure of the generative mechanism that must remain constant.

 

 

4Causal Regression and the Limits of Methodological Individualism

 

To bring some order into the confusing variety of phenomena called "mechanisms", it is useful to distinguish between a) the level of reality they refer to, b) their degree of conceptual abstraction, and c) their assumed scope of application. If social phenomena are explained by psychological mechanisms and psychological phenomena by neurological processes, causal regression from a higher to a lower level of reality is involved. Elements on different levels of reality can stand in a part-whole relation, like cells to an organism, or human actors to a social system. System level phenomena are then explained by the activities of the parts. Mechanisms, accordingly, exist in a "nested hierarchy": The activity of an entity at a given level may be looked at (1) in isolation, (2) constitutively, i.e. by identifying the lower level mechanisms that generate its activity, or (3) contextually, by showing how it fits into the organization of a higher-level mechanism (Craver 2001, 65-71). In the philosophy of science it is generally held that "(f)or a higher-level law to be mechanically explicable, it must be realized by some lower-level mechanism" (Glennan 1996, 62).

 

In contrast, conceptual abstraction takes place on a single level of reality; the concepts "United Kingdom in 1990", "twentieth century West European states", and "modern states" all refer to the same kind of social unit. It is possible to develop highly general concepts of mechanisms if we pare down complex concrete processes to the bare bones of basic interaction types, such as cooperation, competition, negotiation and subjugation. Karlsson (1958), Elster (1989), and Bunge (1997) have all spoken of such basic social processes and called them mechanisms. Propositions about mechanisms can form conceptual hierarchies, ranging from the particular to the highly general. "Path dependent technological innovation", "increasing returns", and "positive feedback" are increasingly general concepts that can be applied to the same case, for instance the frequently cited QWERTY case of the typewriter keybord (David 1985).

 

More abstract concepts are often called more general, and indeed their scope of application is wider than that of their more specific sub-categories. There are more cases of positive feedback, for instance, than of path dependent technological innovation, more cases of "cooperation" than, say, of neo-corporatism. But there are also possible differences in the scope of application independent of the degree of conceptual abstraction. Such differences would be based on differences in the inherent regularity between, for instance, physical reality on the one hand, where (near-)universal regularities can be found, and organisms and social systems on the other hand. In fact, this has been argued by biologists and social scientists alike. Conceivably, the general concept of negative feedback, the threshold-dependent balancing of activating and inhibiting forces, has a more restricted scope of application in the social than in the organic world. Any given mechanism statement can, then, be characterized by a) the level of reality it refers to, b) its degree of conceptual abstraction, and c) the scope of its claimed applicability at a given level of abstraction. Of these distinctions, the first plays the most significant role in the discussion about mechanisms.

 

Complex social units are seen as part-whole hierarchies, with human actors and their actions as elements. Hedström and Swedberg (1996, 299) state peremptorily that "there exist no macro-level mechanisms". According to Büthe (2002, 483), causal mechanisms "are usually derived from very general theories of the constraints, motivations, and cognitive processes employed in decision making and thus shaping human agency". Little argues that social regularities are emergent phenomena not directly governed by any laws; the only governing regularities in social reality are regularities of individual agency (Little 1993, 188). These quotes express the basic tenet of methodological individualism; it calls for causal regression in the explanation of social macro-phenomena on the assumption that system properties are not caused directly by other system properties, but by the activities of the system elements.

 

The principle of methodological individualism is often illustrated by the macro-micro-macro model of sociological explanation. Developed by Coleman (1986, 1990) and adopted among others by Esser (1993, 2002) and Hedström and Swedberg (1996), this model states that the connection between two macro phenomena (e.g. protestant ethic and capitalist economy, improved social conditions and revolution) must be explained by going down to the level of motivated human beings and their activities. The model can also be applied to processes of change in a given social structure or institution. Micro1 stands for individual reactions to situational givens determined by Macro1, Micro2 for the behavior thus induced. The "fixed kernel" (Coleman 1990, 11) of the model at the micro level is a theory of action, whether perceived in terms of rational choice or in terms of interpretive social science (Little 1991: 11); a mechanism based account is quite compatible with different social theories of action. Some authors (as for instance Elster 1989) go even a step further and explain social action by cognitive and other psychological mechanisms (e.g. frustration-aggression, reactance).

 

 

 

 

Adapted from Coleman (1986, 1990).

 

 

For purely pragmatic reasons, it is of course often not possible to go down to the level of individual behavior in empirical research that tries to account for a macro-event or change process. If the macro-effect to be explained is for instance the result of bargaining among formal organizations (unions, business organizations, governments) one would not go down to the level of the individual organization members to explain the strategic choices of the corporate actors - not only for pragmatic reasons, but also because causal regression to the micro level of individual action is not necessary as long as it is possible to attribute actor quality to larger social units. Stinchcombe makes a similar point when he doubts the explanatory surplus value of seeking an explanation of collective patterns of magical practice at the individual level. He concludes:

 

Where there is rich information on variations at the collective or structural level, while individual-level reasoning (a) has no substantial independent empirical support and (b) adds no new predictions at the structural level that can be independently verified, theorizing at the level of [individual level] mechanisms is a waste of time. (Stinchcombe 1991: 379-380).

 

But even where going down to the level of individual behavior is feasible, it would be a fateful misunderstanding to believe that macro-phenomena follow directly from motivated individual behavior.

 

Let us return for a moment to the I - M - O model of mechanisms. If we project this model onto the full macro-micro-macro model of sociological explanation, "M" refers to the whole sequence of steps linking Macro 1 and Macro 2. However, the I - M - O model can also be applied separately to all of the three relations making up the macro-micro-macro model. Thus, the outcome "O" in the I -M - O model can be an action situation as well as a type of behavior (such as divorcing; see Esser 2002), or a macro phenomenon. Looked at more closely, the macro-micro-macro model of sociological explanation therefore consists of three different types of mechanisms: macro-micro, micro-micro, and micro-macro. Macro-micro mechanisms are involved in the generation of action situations; micro-micro mechanisms generate individual behavior; and micro-macro mechanisms generate macro-phenomena. These three kinds of mechanisms are the basis of the typology most often adopted by authors who try to make typological distinctions at all, something that is the exception rather than the rule.

 

Prominent among those using this threefold typology are Hedström and Swedberg (1996), who speak of situational (macro-micro), individual action (micro-micro), and transformational (micro-macro) mechanisms (Hedström/Swedberg 1996, 296-298; see also Müller 2001, 55). An independently developed threefold typology is offered by Tilly (2001) and by McAdam, Tarrow and Tilly (2001), who distinguish between environmental, cognitive, and relational mechanisms. Environmental mechanisms (such as resource depletion) produce changes in "the conditions affecting life"; cognitive mechanisms refer to psychological mechanisms driving specific kinds of behavior; and relational mechanisms "alter" the "connections among people, groups, and interpersonal networks" (Tilly 2001: 26). Looked at superficially, this typology seems very similar to the Hedström and Swedberg typology. Cognitive mechanisms driving specific kinds of behavior clearly fall into the category of micro-micro mechanisms. It is less evident that environmental mechanisms correspond to the category of macro-micro mechanisms: They do (by definition) affect action situations, but possibly by non-social factors such as resource depletion. Relational mechanisms, finally, may seem to fall into the category of Hedström and Swedberg's transformational mechanisms. But if one looks more closely at their substantive content, an important difference to the dominant conceptions of micro-macro mechanisms becomes visible. As the term indicates, relational mechanisms emphasize relations, i.e. structures, and not only individual action. This holds for such basic mechanisms as competition (considered as interaction process), and it also holds for the mechanism of brokerage that plays an important role in the social processes leading to contentious episodes analyzed by McAdam, Tarrow and Tilly. Brokerage is not defined as a specific type of action (brokering), but as the process linking "two or more unconnected social sites by a unit that mediates their relation with one another and/or with yet other sites" (McAdam, Tarrow, Tilly 2001, 26).

 

Relational mechanisms are of crucial importance for the causal reconstruction of social macro-phenomena. This directs attention to a critical weakness of the macro-micro-macro model. As graphically depicted, Coleman's model has a built-in bias in favor of individual action (or agency). Before re-emerging in the description of the outcome, structural and institutional factors appear in the model only as determinants of the action situation of individuals. The micro-macro mechanism seems to generate macro-effects directly from individual action. Such a notion fits quite well where macro-phenomena appear as emergent effects of the interdependent, but uncoordinated actions of many individuals, as for instance in diffusion or mobilization processes. Not surprisingly, it is exactly such processes that not only Coleman himself, but also Boudon (1979) and most of the authors in the Hedström and Swedberg (1998) collection concentrate on. The same holds for Karlsson (1958), who speaks generally of "interaction mechanisms", of which he distinguishes two subtypes: diffusion mechanisms and choice mechanisms. The latter are determined by the preferences and properties of actors, and generate typically distributional structures such as endogamy or spatial segregation. Even Elster (1989), where he goes beyond the explication of psychological mechanisms, concentrates on aggregate effects [4] of motivated individual behavior.

 

However, the identification of "micro" with individual action implicitly eliminates structural features from the core of the mechanism directly responsible for a macro-phenomenon. True, Coleman (1990, 11) notes discursively that individual action produces different social phenomena "when located in different social contexts", and lists "various ways in which actions combine to produce macro-level outcomes" (Coleman 1990, 11, 20), but no effort is made to include structural features explicitly in the micro-macro part of the model. [5] In fact, however, macro-structures, i.e. relational constellations that may, but need not be institutionally based, are integral parts of the processes generating social macro-phenomena; they are in fact the decisive parts.

 

This is evident even for aggregate (emergent, interaction) effects following from the actions of the individuals in a given population. In the diffusion of an innovation, a rumor, or a disease, the receptivity of each individual determines only whether, if contacted, she will adopt an innovation, believe and pass on a rumor, or fall ill. But the shape of the whole process, how quickly it extends, how highly it peaks or whether it breaks off at an early point is entirely dependent upon the contact structure in the population and the profile of receptivity over all individuals - both undoubtedly macro-structural, and both undoubtedly components of the generative mechanism. This has been clearly recognized by Granovetter who, in his analysis of threshold models of collective behavior, emphasizes the need to "specify the impact of social structure on collective outcomes" (Granovetter 1978, 1430). The mechanism generating the macro-effect "market equilibrium" also depends on structural features, such as the existence of a plurality of competing producers and the absence of political price fixing; the rational decisions of individuals to offer or buy are the "material stuff" of the process, but its shape is determined by these structural elements. Even the famous "tragedy of the commons" does not simply result from the rational behavior of individuals who discount future (or collective) costs against present (or private) profit; this action orientation leads to a "tragedy" only if land for grazing is institutionally defined as common property. Arguing along this line, Ostrom generally emphasizes the importance of institutional rules for the occurrence and solution of common pool resource problems; more recently she even includes structural properties of the social groups in her analysis (Ostrom 1990, 1999). In all of these cases, specific structural (or institutional) features are decisive for the generation of aggregate macro-effects.

 

This is even more evident when we deal with outcomes resulting from specific types of actor constellations. A classical example is Elias' Königsmechanismus which operates in the sociogenesis of the modern state (Elias 1969). The basis of this mechanism is a hierarchical relationship between a central authority and a plurality of lower level power centers envious of their autonomy. As the power of the central authority increases, the lower level units shift from competition among each other to cooperation, thus weakening the central authority; this eases pressure on the lower level units, which revert to competition among each other. This particular actor constellation thus generates a repeated oscillation between centralization and decentralization. Or to take a present-day example: policy blockades (as outcomes) that occur in federal states are the consequence of a structure of constitutionally defined veto points that offer a regional or political minority the opportunity to deny the passage of legislation. Structural factors are also decisive when experts can find a problem solution on the basis of technical arguments in a negotiation structure where the resolution of distributional conflicts is organizationally separated from the technical discourse. Of course structures exert their effect through the actions of individuals, but assuming a general action orientation of individuals (for instance rational choice), it is the nature of the structural arrangements within which they act that determines the effect. If the explanandum is a macro phenomenon, or the connection between two macro phenomena such as a contribution based welfare system and a growing unemployment rate, the main cognitive challenge is therefore to identify the structural and institutional features that process (or organize, in the terminology of Craver) the actions of different actors so as to produce the macro effect.

 

 

5Social Mechanisms as Theoretical Building Blocks

 

The preceding discussion has hopefully dispelled some of the confusion besetting the use of the mechanism concept in the social sciences. At this point we can return to the question that originally motivated this exercise, i.e. to clarify the - presumably crucial - role that propositions about mechanisms play in the causal reconstruction (and thus explanation) of social macro-phenomena.

 

To put the question this way means to start with circumscribed empirical fields, not to search for a general social theory à la Niklas Luhmann, in which case we would try to find the most general mechanisms that operate in the social world. Such an effort might in the end lead to some encompassing analytical framework like the one developed by Leopold von Wiese, the major representative of German formal sociology, who classified all social processes into two basic categories, processes of Zueinander (coming together) and processes of Auseinander (drawing apart) (von Wiese 1933). But "generic mechanisms can explain no particular facts", as Bunge (1997: 451) warns us. To spell out the general interactive dynamic leading to cooperation abstractly defined helps little to explain how cooperation between organized business and organized labor is generated in a neo-corporatist structure of economic policy making. It is not possible to build a substantive theory out of context-free, general mechanisms. Mechanisms explaining concrete macro-phenomena must be much more specific.

 

The starting point of the search for mechanisms operating in a specific field is always an observed or suspected regularity, a correlation, or a puzzling event, structure, or process. Mechanisms are links in theory; they are causal propositions that explain specific outcomes by identifying the generative process which, given certain initial conditions, produces them. If social mechanisms are to explain observed phenomena or relationships, this means that the latter are logically prior: The "what" logically precedes the "how"-question. Field-specific theories can include propositions about social mechanisms, but by themselves, these propositions do not make a coherent theory. This is in fact recognized in definitions of theory as that offered by Kiser and Hechter (1998), who mention mechanisms as parts of theories. Statements about mechanisms can therefore well complement an analysis based on statistical correlations. In fact, this is how they are often discursively used, though mostly more ad hoc than in a systematic manner. There are also cases of sophisticated correlation analysis that come quite close to an analysis in terms of mechanisms without ever using that word (e.g. Hoover 1990). The contrast between correlational (multivariate) and mechanistic approaches is by no means as stark as some of the latter's advocates maintain. To pit analysis in terms of mechanisms against the search for correlations is mistaken.

 

Processes identified in the causal reconstruction of a particular case or a class of macro-phenomena are transformed into mechanism statements if their causal structure is recognized to apply also to other (classes of) cases. The mobilization process observed in a fund-raising campaign for a specific project can for instance be generalized to cover other outcomes such as collective protest, or a patriotic movement inducing young men massively to enlist in a war. A particular case of technological innovation like the QWERTY keyboard may similarly be recognized as a case in which an innovation that has initially gained a small competitive advantage crowds out technological alternatives in the long run. This is already a mechanism of a certain generality, but it may be generalized further to the mechanism of "increasing returns", which does not only apply to technological innovations but has also been used in the analysis of institutional stability and change (Pierson 2000, Thelen 1999). "Increasing returns", of course, is a sub-category of positive feedback, an even more general mechanism that also operates in the bankruptcy of a firm caused by the erosion of trust, or in the escalation of violence in clashes between police and demonstrators (Nedelmann/Mayntz 1987). If we aim to identify social mechanisms specific enough to have explanatory value for particular observed outcomes or relationships, but at the same time general enough to apply in different empirical fields, it is necessary to spell out the range of initial conditions that, through a process with a given causal structure, can generate a range of different outcomes. In this way, a tool-box of more general mechanism models could be built up. And while no particular event can be derived from such a general concept as "positive feedback", the concept can stimulate the researcher to look out for a specific type of causal dynamic in his empirical case or cases.

 

The majority of macro-phenomena that especially political scientists deal with cannot be explained by applying one particular mechanism model. Instead, the causal reconstruction of macro-phenomena such as non-violent regime change, rising unemployment, or democratization involves a chain of different mechanisms that jointly generate the outcome. Not all of the component mechanism of such a process will be social in the strict sense; in the processes analyzed by McAdam, Tarrow and Tilly, basically psychological (cognitive) mechanisms as, for instance, "identity shift" are important parts of the causal chain. The higher-order processes may themselves be patterned and hence qualify as second-order mechanisms, but whether they do or not is an empirical question. McAdam, Tarrow and Tilly (2001) for instance describe the process of democratization as a second-order process that is composed of a series of mechanisms which may be joined together in different ways, but still lead to a comparable "terminal condition". Substantive theories, whether they deal with contentious episodes, institutional stability and change, or varieties of capitalism, typically involve a plurality of mechanisms of a relatively high degree of specificity.

 

The problem is that our theoretical tool-boxes for different types of mechanisms are very unevenly filled. We have a good-sized, if not very orderly tool-box of mechanism models for different forms of collective behavior - collective in the sense that the uncoordinated, but interdependent actions of many individuals generate aggregate effects. Examples are models of linear and non-linear diffusion, the mechanism underlying spatial segregation in urban housing, the market mechanism, and the mechanism of mobilization where not only thresholds, but also a "production function" (i.e. how many must participate to produce the effect) plays a role [6]. We have as yet no similarly filled tool-box of mechanisms where specific types of corporate actor constellations and relational structures play the crucial role. Several such mechanisms have been identified by McAdam, Tarrow and Tilly (2001); the brokerage mechanism already mentioned is only one example. Concrete macro-processes involve a large variety of structural and institutional features which it is very difficult to systematize. They range from Simmel's tertius gaudens, different network configurations and different kinds of power structure (concentrated or fragmented, centralized or decentralized, single or multi-level etc.), to the rules for the processing of votes in election systems. In this sea of most diverse particulars, game theory is an island of general concepts and models of constellation effects. In game theory it is the pay-off structure that determines whether (rational) actors cooperate. A game like Prisoner's Dilemma or Battle of the Sexes is a relatively simple mechanism, involving mainly the pay-off structure and the rational orientation of players as initial conditions that determine the strategy choices of actors, whose combination in turn produces the outcome of the interaction. But as often pointed out, many actor constellations cannot meaningfully be modelled as games. While neo-corporatist bargaining might be explained in terms of strategic interdependence (i.e. game models), the generation of the basic precondition of such bargaining, i.e. the existence of a particular structure of interest organizations, is the result of a much more complex process, involving technological and legal innovations, a specific form of social differentiation, and authoritative political intervention.

 

With the exception of game theory, the literature is still devoid of attempts to treat diverse kinds of actor constellations in different fields of macro-social research as systematically as has been done for the emergent effects of collective behavior. If different structural configurations and actor constellations generate indeed typical kinds of social dynamic, it would be worth while to search for mechanism models that go beyond collective behavior and the production of aggregate effects on the one hand and game theory on the other hand. The problem is that in most empirical studies in which structural configurations and actor constellations play a crucial role, very little effort is devoted to distil mechanism models from the analysis. The work of McAdam, Tarrow and Tilly (2001) on contentious episodes is a notable exception. Other fields that might be subjected to a secondary analysis with a similar intention in mind include research on regime transformation with its focus on change processes, research on the varieties of capitalism with its focus on processes of systemic interdependence, studies in historical institutionalism with their focus on institutional continuity and change, and generally, analyses of policy processes in single- and multi-level political systems. It would be of great theoretical interest to see to what extent the social mechanisms identified in such different fields are isomorphic and can be generalized, or remain specific to the type of explanandum. This article thus concludes as befits a state-of-the-art analysis: with a call for further work.

 

 

 

References

 

Beck, Nathaniel, Jonathan Katz, 1995. What to Do (and not to Do) with Time-Series Cross-Section Data. American Political Science Review 89, 634-647.

Boudon, Raymond, 1979. La logique du social. Paris: Hachette.

Boudon, Raymond, 1984. La place du desordre. Paris: Presses Universitaires de France.

Boudon, Raymond, 1998. Social Mechanisms Without Black Boxes. In Social Mechanisms. An Analytical Approach to Social Theory, edited by Peter Hedström and Richard Swedberg. Cambridge: Cambridge University Press, 172-203.

Bunge, Mario, 1997. Mechanisms and Explanation. Philosophy of the Social Sciences 27 (4), 410-465.

Büthe, Tim, 2002. Taking Temporality Seriously: Modelling History and the Use of Narratives as Evidence. American Political Science Review 96 (3), 481-493.

Calhoun, Craig, 1998. Explanation in Historical Sociology: Narrative, General Theory, and Historically Specific Theory. American Journal of Sociology 104 (3), 846-871.

Coleman, James S., 1964. Introduction to Mathematical Sociology. New York: Free Press.

Coleman, James S., 1986. Social Theory, Social Research, and a Theory of Action. American Journal of Sociology 91 (6), 1309-1335.

Coleman, James S., 1990. Foundations of Social Theory. Cambridge: Harvard University Press.

Craver, Carl, 2001. Role Functions, Mechanisms, and Hierarchy. Philosophy of Science 68 (1), 53-74.

David, Paul, 1985. Clio and the Economics of QWERTY. American Economic Review 75 (May), 332-337.

Elias, Norbert, 1969 (2nd ed.). Über den Prozeß der Zivilisation. Bern: Francke AG.

Elster, Jon, 1989. Nuts and Bolts for the Social Sciences. Cambridge: Cambridge University Press.

Elster, Jon, 1998. A Plea for Mechanisms. In Social Mechanisms. An Analytical Approach to Social Theory, edited by Peter Hedström and Richard Swedberg. Cambridge: Cambridge University Press, 45-73.

Esser, Hartmut, 1993. Soziologie. Allgemeine Grundlagen. Frankfurt: Campus.

Esser, Hartmut, 2002. Was könnte man (heute) unter einer "Theorie mittlerer Reichweite" verstehen? In Akteure - Mechanismen - Modelle. Zur Theoriefähigkeit makro-sozialer Analysen, edited by Renate Mayntz. Frankfurt: Campus, 128-150.

Glennan, Stuart S., 1996. Mechanisms and the Nature of Causation. Erkenntnis 44, 49-71.

Granovetter, Mark, 1978. Threshold Models of Collective Behavior. American Journal of Sociology 83 (6), 1420-1443.

Hall, Peter A., 2003. Aligning Ontology and Methodology in Comparative Research. In Comparative Historical Research in the Social Sciences,.edited by James Mahoney and Dietrich Rueschemeyer, New York: Cambridge University Press (in print).

Hedström, Peter, Richard Swedberg (eds.), 1998. Social Mechanisms: An Analytical Approach to Social Theory. Cambridge: Cambridge University Press.

Hedström, Peter, Richard Swedberg, 1996. Social Mechanisms. Acta Sociologica 39 (3), 281-308.

Hempel, Carl G., 1965. Aspects of Scientific Explanation - And Other Essays in the Philosophy of Science. New York: Free Press.

Hoover, Kevin D., 1990. The Logic of Causal Inference. Econometrics and the Conditional Analysis of Causation. Economics and Philosophy 6, 207-234.

Johnson, James, 2002, How Conceptual Problems Migrate: Rational Choice, Interpretation, and the Hazards of Pluralism. Annual Review of Political Science 5, 223-248.

Karlsson, Georg, 1958. Social Mechanisms. Studies in sociological theory. Stockholm: Almquist & Wiksell.

Kiser, Edgar, Michel Hechter, 1998. The Debate on Historical Sociology: Rational Choice and Its Critics. American Journal of Sociology 104 (3), 785-816.

Kitschelt, Herbert, 2003 (in print), Accounting for Postcommunist Regime Diversity: What Counts as a Good Cause? In Capitalism and Democracy in Eastern and Central Europe. Assessing the Legacy of Communist Rule, edited by Grzegorsz Ekiert and Stephen Hanson. Cambridge: Cambridge University Press.

Knight, Jack, 1995. Models, Interpretations, and Theories: Constructing Explanations of Institutional Emergence and Change. In Explaining Social Institutions, edited by Jack Knight and I. Sened. Ann Arbor: University of Michigan Press.

Kuran, Timur, 1989. Sparks and Prairie fires: A theory of unanticipated political revolution. Public Choice 61, 41-74.

Little, Daniel, 1991. Varieties of Social Explanation. An Introduction to the Philosophy of Social Science. Boulder (Col.): Westview Press.

Little, Daniel, 1993. On the Scope and Limits of Generalizations in the Social Sciences. Synthese 97, 183-207.

Machamer, Peter, Lindley Darden, Carl F. Craver, 2000. Thinking about Mechanisms. Philosophy of Science 67 (1), 1-25.

Mahoney, James, 2001. Beyond Correlational Analysis: Recent Innovations in Theory and Method. Sociological Forum 16 (3), 575-593.

Mayntz, Renate, 1997 (1988), Soziale Diskontinuitäten. Erscheinungsformen und Ursachen. In Soziale Dynamik und politische Steuerung. Theoretische und methodologische Überlegungen. Frankfurt/Main: Campus, 115-140.

Mayntz, Renate, 2002, Zur Theoriefähigkeit makro-sozialer Analysen. In Akteure - Mechanismen - Modelle. Zur Theoriefähigkeit makro-sozialer Analysen, edited by Renate Mayntz. Frankfurt/Main: Campus, 7-43.

McAdam, Doug, Sidney Tarrow, Charles Tilly, 2001. Dynamics of Contention. Cambridge: Cambridge University Press.

Merton, Robert K., 1957. On Sociological Theories of the Middle Range. In On Sociological Theory. Five Essays, Old and New. New York: Free Press, 39-72.

Müller, Hans-Peter, 2001, Soziologie in der Eremitage? Skizze einer Standortbestimmung. In Gesellschaftsbilder im Umbruch, edited by Eva Barlösius, Hans-Peter Müller, and Steffen Sigmund. Opladen: Leske + Budrich.

Nagel, Ernest, 1961. The Structure of Science. Problems in the Logic of Scientific Explanation. London: Routledge & Kegan Paul.

Nedelmann, Birgitta, Renate Mayntz, 1987. Eigendynamische soziale Prozesse. Anmerkungen zu einem analytischen Paradigma. Kölner Zeitschrift für Soziologie und Sozialpsychologie 39, 648-668.

Ostrom, Elinor, 1990. Governing the Commons. The Evolution of Institutions for Collective Action. Cambridge: Cambridge University Press.

Ostrom, Elinor, 1999. Context and Collective Action: Four Interactive Building Blocks for a Family of Explanatory Theories. Indiana University: Workshop in Political Theory and Policy Analysis (manuscript).

Pawson, Ray, 2000. Middle-range realism. Archives Européennes de Sociologie XLI (2), 283-324.

Petersen, Roger, 1999, Mechanisms and structures in comparison. In Critical Comparisons in Politics and Culture, edited by John Bowen. Cambridge (UK): Cambridge University Press.

Pierson, Paul, 2000. Increasing Returns Path Dependence, and the Study of Politics. American Political Science Review 94, 251-267.

Ragin, Charles C., 1987. The Comparative Method. Moving Beyond Qualitative and Quantitative Strategies. Berkeley: University of California Press.

Ragin, Charles C., 2000. Fuzzy-Set Social Science. Chicago: Chicago University Press

Somers, Margaret R., 1998. "We're no Angels": Realism, Rational Choice, and Relationality in Social Science. American Journal of Sociology 104 (3), 722-784.

Stinchcombe, Arthur L., 1991. The Conditions of Fruitfulness of Theorizing about Mechanisms in Social Science. Philosophy of the Social Sciences 21, 367-388.

Stinchcombe, Arthur L., 1998. Monopolistic competition as a mechanism: Corporations, universities, and nation-states in competitive fields. In Social Mechanisms. An Analytical Approach to Social Theory, edited by Peter Hedström and Richard Swedberg. Cambridge: Cambridge University Press, 267-305.

Thelen, Kathleen, 1999. Historical Institutionalism in Comparative Politics. The Annual Review of Political Science 2, 369-404.

Tilly, Charles, 2001. Mechanisms in Political Processes. Annual Review of Political Science 4, 21-41.

von Wiese, Leopold, 1933. System der allgemeinen Soziologie: Beziehungslehre - als Lehre von den sozialen Prozessen und den sozialen Gebilden des Menschen. Berlin: Duncker und Humblot.

 

 

 

Notes

 

1

Following Coleman (1964), mechanisms are occasionally called "sometimes-true theories" to distinguish them from laws; see for instance Stinchcombe 1998: 267. This label, however, applies equally to correlational propositions with an explicit ceteris paribus clause. Mahoney (2001: 578) may make the same point when he argues that the notion of mechanisms as mid-level theories does not clearly differentiate the concept from that of a probabilistically formulated hypothesis, i.e. a kind of hypothesis that belongs squarely to correlational analysis.

 

2

For a more extended discussion see Somers (1998: 725-726) and Calhoun (1998: 851, footnote 5).

 

3

The confusion is both semantic as well as related to research technology. The word intervene can be used with different meanings, including to say that a process or mechanism "linking" cause and effect "intervenes" between them. And social processes such as democratization, economic growth, or mobilization can be operationalized in the form of a quantitative variable. The dividing line between analyses in terms of correlations and in terms of mechanism, while logically clear, can practically be quite thin.

 

4

Following Boudon (1984), who in discussing such effects repeatedly speaks of agrégation d'actions individuelles, I use this term not for statistical properties (e.g. mobility rate, income distribution), but for the results of collective action processes producing unintended macro effects such as a panic, a segregated settlement structure, or an unanticipated political revolution (see Kuran 1989).

 

5

In Esser's explanatory sociology, structural and institutional factors not included in Macro 1 are seen to play the role of intervening meso-level variables in the transformational mechanism (Esser 1993), but this does does not really fit a model that strictly separates macro = structural from micro = behavioral.

 

6

For a survey of different kinds of discontinuous processes see Mayntz 1997 (first 1988).

 

 


Copyright © 2003 Renate Mayntz

No part of this publication may be reproduced or transmitted without permission in writing from the author.
Jegliche Vervielfältigung und Verbreitung, auch auszugsweise, bedarf der Zustimmung des Autors.

MPI für Gesellschaftsforschung, Paulstr. 3, 50676 Köln, Germany

 

 

  • A-priori-Teststärkeanalyse

    Bei einer A-priori-Teststärkeanalyse („a priori/prospective power analysis“) werden vor Durchführung einer Untersuchung Signifikanzniveau, Teststärke und interessierende Effektgröße festgelegt, um auf dieser Basis den optimalen“ Stichprobenumfang („sufficient sample size“) zu bestimmen. Dies ist der notwendige Mindeststichprobenumfang, um anhand eines statistischen Nil-Nullhypothesen- Signifikanztests mit ausreichender Teststärke eine aussagekräftige Entscheidung über das Hypothesenpaar zu treffen. Die notwendige Festlegung der interessierenden Effektgröße ist gleichbedeutend mit der Anforderung, eine (in der Regel gerichtete) spezifische H1 zu formulieren, d. h. bei der Untersuchungsplanung nicht nur zu postulieren, dass ein Effekt existiert, sondern auch seine Größe bzw. zumindest seine Größenordnung anzugeben. In der Praxis wird hier häufig mit groben Effektgrößenklassifikationen gearbeitet, d. h. ein kleiner, mittlerer oder großer Effekt postuliert.

  • Abduktion

    Bei der Abduktion („abduction“) beginnt der Erkenntnisprozess wie bei der Induktion mit den Daten, allerdings werden im Unterschied zur Induktion nicht die in den Daten erkennbaren Muster schrittweise systematisch herausgearbeitet, sondern es werden gerade die unverständlichen Merkmalskombinationen betrachtet und durch einen plötzlichen gedanklichen Sprung wird eine neue erklärende Hypothese gebildet. Die Abduktion ist also ein kreativer Prozess der Generierung neuer Hypothesen aus Daten, wobei vor allem die geistige Haltung der Forschenden entscheidend ist (zur Einführung in die Abduktion s. Reichertz, 2003). In der qualitativen Sozialforschung wird neben der Induktion auch die Abduktion zum Erkenntnisgewinn herangezogen.

  • Alltagsbeobachtung

    Für die Alltagsbeobachtung („everyday observation“) sind willkürliche Einzelbeobachtungen, die subjektiv interpretiert und bewertet werden, typisch (sog. anekdotische Evidenzen).

  • Alternativhypothese und Nullhypothese

    Im Kontext des statistischen Nullhypothesen-Signifikanztests wird zu jeder Alternativhypothese (H?, „alternative hypothesis“), die theoriebasiert die Existenz (oft auch die Richtung und zuweilen sogar die Größe) eines Populationseffekts postuliert, eine Nullhypothese (H?, „null hypothesis“) aufgestellt, die den betreffenden Effekt negiert. H? und H? bilden zusammen ein Hypothesenpaar, das alle möglichen Ausprägungen des betrachteten Effekts beinhaltet.

  • Anspruchsgruppen bzw. Stakeholdern

    Im Kontext der Evaluationsforschung sind mit Anspruchsgruppen bzw. Stakeholdern („stakeholder“) alle direkt und indirekt von der Nutzung und Wirkung des Evaluationsgegenstandes Betroffenen („program beneficiary“ bzw. Zielgruppe: Kunden, Patienten, Teilnehmer sowie deren Angehörige, Freunde etc.) sowie alle an der Entwicklung, Umsetzung und Optimierung des Evaluationsgegenstandes Beteiligten („program developer/ provider“: Produkt- und Maßnahmenentwickler, Maßnahmenverantwortliche, Dienstleistungspersonal, politische Entscheidungsträger etc.) gemeint.

  • Anwendungsforschung

    Die Anwendungsforschung („applied research“) widmet sich praxisbezogenen Fragestellungen und erfolgt oft als Auftragsforschung.

  • Anwendungswissenschaftliche Studie

    Die anwendungswissenschaftliche Studie („applied research study“) dient primär der Lösung praktischer Probleme mithilfe wissenschaftlicher Methoden und Theorien. Anwendungsforschung findet als unabhängige Forschung („independent research“, „non-commercial research“) oder als Auftragsforschung („contract resarch“, „commercial research)“ statt.

  • Art des Effekts

    Bei Forschungshypothesen werden nach Art des postulierten Effekts drei inhaltliche Typen von Hypothesen differenziert: Unterschiedshypothesen („hypotheses of difference“), Zusammenhangshypothesen („correlation hypotheses“) und Veränderungshypothesen („hypotheses of change“).

  • Auswahl- und Inferenzpopulation

    Im Zusammenhang mit Stichprobenerhebungen müssen drei Populationskonzepte differenziert werden: Während die Zielpopulation („target population“) die Gesamtheit aller Objekte meint, über die Aussagen getroffen werden sollen, umfasst die Auswahlpopulation („frame population“) die Gesamtheit aller Objekte, die prinzipiell eine Chance haben, in die Stichprobe zu gelangen. Angesichts von Stichprobenausfällen erlaubt eine konkrete Stichprobe meist keinen direkten Rückschluss auf die Auswahlpopulation, sondern nur auf eine sog. Inferenzpopulation („inference population“), also die Gesamtheit aller Objekte, aus der die Stichprobe tatsächlich stammt.

  • Autoethnografie

    Bei der Autoethnografie („autoethnography“) handelt es sich um eine ethnografische Feldbeobachtung, bei der die Forscherin oder der Forscher als vollständiger Teilnehmer bzw. Insider („complete participant“, „member researcher“) im untersuchten Beobachtungsfeld agiert und der Fokus der Datenerhebung auf der Selbstbeobachtung und Selbstreflexion liegt. Per Autoethnografie werden vor allem menschliche Ausnahme- und Extremsituationen (z. B. Trennung oder Tod von Angehörigen, Krankheit und Sterben, außergewöhnliche Hobbys und Tätigkeiten) untersucht. In ihrem wissenschaftstheoretischen Verständnis und ihrer Vorgehensweise unterscheidet sich die evokative/emotionale Autoethnografie („evocative/emotional autoethnography“), die mit tradierten Kriterien der Wissenschaftlichkeit bricht und die Gültigkeit ihrer Befunde vor allem von emotionaler Nachvollziehbarkeit abhängig macht, von der analytischen Autoethnografie („analytical autoethnography“), die auf theoretische Analyse des Datenmaterials und intersubjektive Nachvollziehbarkeit setzt.

  • Automatische Telefonbefragung

    Bei einer automatischen Telefonbefragung („interactive voice response“, IVR; „telephone audio computer assisted self-interviewing“, T-ACASI) wird der Fragebogen über ein telefonisch erreichbares Audiosystem vorgelesen. Bei dieser selbstadministrierten akustischen Fragebogenpräsentation geben die Respondenten ihre Antworten per Tastendruck („touch tone input“) oder per Spracheingabe („voice input“).

  • Basissatz- und Korrespondenzproblem

    Gemäß kritischem Realismus sind empirische Daten keine reinen Abbilder der Realität, sondern im Zuge der Forschung erzeugte, stets von Theorien durchsetzte Beschreibungen, deren Übereinstimmung mit der beobachtbaren Wirklichkeit (sog. Basissatzproblem) sowie deren Entsprechung mit den jeweiligen Begriffen/Konstrukten innerhalb der zu prüfenden Theorie (sog. Korrespondenzproblem) ihrerseits theoretisch zu fassen und kritisch-empirisch zu prüfen sind anhand sog. Hilfs- oder Instrumententheorien.

  • Basissatzproblem

    Das Basissatzproblem („problem of basic statements“) bezieht sich auf die Problematik des Nachweises, dass Beobachtungsprotokolle bzw. die erhobenen empirischen Daten tatsächlich mit der Wirklichkeit übereinstimmen. Die Übereinstimmung kann nicht bewiesen, sondern nur in einem – ständiger Kritik unterzogenen – Konsens der Wissenschaftsgemeinschaft festgelegt werden. Damit handelt es sich bei empirischen Daten im Verständnis des Kritischen Rationalismus nicht einfach um reine Fakten, sondern immer um theoriegeladene Aussagen.

  • Befragung per Austeilen und Einsammeln

    Bei einer Befragung per Austeilen und Einsammeln („delivery and collection survey“) wird ein Paper-Pencil-Fragebogen an die anwesenden Befragungspersonen (meist in einer Gruppe) ausgeteilt und nach dem Ausfüllen vor Ort direkt wieder eingesammelt.

  • Begründungszusammenhang von Theorien

    Der Kritische Rationalismus konzentriert sich im Zusammenhang mit wissenschaftlichem Erkenntnisgewinn auf den Begründungszusammenhang. Mit dem Begründungs- oder Rechtfertigungszusammenhang („context of justification“) ist die Frage angesprochen, ob und wie eine Theorien intersubjektiv nachvollziehbar als ungültig (falsifiziert) oder als vorläufig bestätigt bzw. bewährt (bislang nicht falsifiziert) ausgewiesen werden kann. Die Prüfung von wissenschaftlichen Theorien soll laut Kritischem Rationalismus in der Forschung gemäß dem deduktiven Falsifikationsprinzip methodisch angeleitet in nachvollziehbarer Weise anhand von empirischen Daten erfolgen. Wobei gemäß raffiniertem methodologischem Falsifikationismus immer auch die Erklärungskraft der Theorie im Vergleich zu anderen Theorien ein Beurteilungskriterium ist.

  • Bewährungsgrad einer Theorie

    Der Bewährungsgrad („corroboration“) einer erfahrungswissenschaftlichen Theorie zu einem bestimmten Sachverhalt ist im Verständnis des Kritischen Rationalismus von der Anzahl und Strenge der überstandenen Replikations- bzw. Falsifikationsversuche abhängig.

  • Bivariate Korrelation

    Die bivariate Korrelation („bivariate correlation“) bestimmt über einen Korrelationskoeffizienten die Enge des Zusammenhangs (schwacher oder starker Zusammenhang) sowie die Richtung des Zusammenhangs (positiver oder negativer Zusammenhang) zwischen zwei Merkmalen. Für Variablen unterschiedlichen Skalenniveaus existieren verschiedene bivariate Assoziationsmaße. Der bivariate Korrelationskoeffizient hat einen Wertebereich von -1 (perfekter negativer = gegensinniger Zusammenhang) bis +1 (perfekter positiver = gleichsinniger Zusammenhang). Bei Werten um Null existiert kein systematischer Zusammenhang.

  • Blockplan

    Wenn bei wiederholter Untersuchung derselben Untersuchungspersonen Transfer-Effekte drohen, sollte ein randomisierter Blockplan („randomized block plan“) eingesetzt werden. Die k-fache Messung einer Untersuchungsperson wird hierbei durch Einzelmessungen von k Untersuchungspersonen ersetzt, wobei die k Untersuchungspersonen eines Blocks nach Ähnlichkeit auszuwählen sind (“Matched Samples“) und zufällig den k Messzeitpunkten zugeordnet werden. Die Blöcke werden zufällig der Experimental- bzw. Kontrollbedingung zugeordnet.

  • Blutdruckmessung

    Bei der Blutdruckmessung („blood pressure measurement“) wird der Blutdruck entweder direkt – d. h. invasiv mit Kanüle und Manometer – oder indirekt mit einem nicht-invasiven Manschettendruckverfahren erfasst. Blutdruckwerte können grafisch als Blutdruckkurve dargestellt werden, indem sie kontinuierlich oder in zeitlichen Abständen abgetragen werden.

  • Datenaufbereitung

    Zur Datenaufbereitung („data preparation“) gehören all jene begründeten und dokumentierten Bearbeitungen bzw. Veränderungen des Rohdatenmaterials, welche die Aussagekraft und (Wieder-)Verwendbarkeit der Daten steigern und die inhaltliche Datenanalyse vorbereiten. Dazu zählen v. a. die Erstellung strukturierter Datensätze aus dem Rohdatenmaterial, die Kommentierung und die Anonymisierung der Datensätze sowie Datenbereinigung und Datentransformation. Ziel der Datenaufbereitung ist eine Steigerung der Datenqualität.

  • Deduktion

    Die Deduktion („deduction“) ist eine Schlussfolgerung vom Allgemeinen auf das Spezielle, in der empirischen Sozialforschung eine Schlussfolgerung von Theorien auf empirische Daten, die von der Theorie vorhergesagt werden. Beim deduktiven Schließen beginnt der Erkenntnisprozess mit einer Theorie, aus der man empirisch prüfbare Hypothesen ableitet und im Falle von deren Widerlegung anhand von Daten die Theorie kritisiert bzw. im Falle ihrer Nicht-Widerlegung die Theorie als vorläufig bestätigt ansieht. Das sog. deduktiv-nomologische Erklärungsmodell dient der Theorieprüfung im quantitativen Paradigma der empirischen Sozialforschung

  • Delphi-Methode

    Die Delphi-Methode („delphi technique“, „delphi poll“, „delphi survey“) ist eine nach dem berühmten griechischen Orakel benannte spezielle Form der vollstrukturierten schriftlichen Befragung, die auf die Suche nach Problemlösungen und die Prognose zukünftiger Entwicklungen abzielt. Kennzeichnend für die Delphi-Methode ist, dass eine Gruppe von Expertinnen und Experten („delphi panel“) in mehreren (mindestens zwei) Runden befragt und ihnen dabei ab Runde zwei jeweils die aggregierten Antworten der Mitexperten zugänglich gemacht werden. Die Befragten können somit ihre eigenen Antworten im Kontext der Antworten des gesamten Delphi-Panels reflektieren und ggf. modifizieren und somit im Idealfall zu besseren Einschätzungen gelangen.

  • Deskriptive Studie

    Die deskriptive Studie („descriptive study of populations“) dient der Feststellung der Verbreitung von Merkmalen und Effekten in großen Grundgesamtheiten, etwa der Bevölkerung eines Landes.

  • Dimensionalität eines Tests

    Die Dimensionalität eines Tests („test dimensionality“) gibt an, ob er mit seinen verschiedenen Test-Items nur ein globales Konstrukt erfasst (eindimensionaler Test), oder ob er mehrere Teilkonstrukte operationalisiert (mehrdimensionaler Testmit zwei oder mehr Untertest). Im Zuge der Dimensionalitäts-Überprüfung wird mit Korrelationsanalysen bzw. vor allem mit exploratorischen oder konfirmatorischen Faktorenanalysen geprüft, ob a) die Anzahl der Dimensionen sowie b) bei mehrdimensionalen Tests auch die Zuordnung der Items zu den verschiedenen Subtests („item dimensionality“) den inhaltlichen Vorgaben der Konzeptspezifikation entspricht.

  • Direkter und indirekter Effekt

    Ein direkter Effekt liegt vor, wenn eine Prädiktorvariable eine Kriteriumsvariable unmittelbar beeinflusst. Als indirekter Effekt wird der Einfluss einer Prädiktorvariable auf eine Kriteriumsvariable bezeichnet, der durch eine dritte Variable (Mediatorvariable) vermittelt (mediiert) wird: Die Prädiktorvariable hat einen Effekt auf die Mediatorvariable, und diese hat einen Effekt auf die Kriteriumsvariable.

  • Effektgrößen in Minimum-Effekt-Nullhypothesen

    Bei Minimum- Effekt-Nullhypothesen wird als Effektgröße die Varianzaufklärung herangezogen. Dabei wird der Bereich vernachlässigbar kleiner Effektgrößen traditionell entweder auf 0%–1% Varianzaufklärung (H??: ?² ? .01) oder auf 0%–5% Varianzaufklärung (H??: ?² ? .05) festgelegt.

  • Effektmodelle der Metaanalyse

    Das Effektmodell derMetaanalyse gibt vor, wie die Gewichtungsfaktoren für die Ergebnisse der einzelnen Primärstudien-Effekte zu bestimmen sind, auf deren Basis der Gesamteffekt als gewichteter Mittelwert berechnet wird. Man unterscheidet Fixed- Effect-, Random-Effects- und Mixed-Effects-Modelle der Metaanalyse.

  • Effektstärke bzw. Effektgröße

    Die Effektstärke bzw. Effektgröße („effect size“, ES) ist definiert als die Größe des im Zuge einer Hypothesenprüfung interessierenden Populationsparameters. Bei dem interessierenden Populationsparameter kann es sich z. B. um einen Prozentwert oder eine Prozentwertdifferenz, einen Mittelwert oder eine Mittelwertdifferenz, einen bivariaten oder multivariaten Korrelationsoder Regressionskoeffizienten oder eine Korrelationsdifferenz handeln. Die Populations-Effektgröße ist in der Regel unbekannt und wird auf der Basis der Stichproben-Effektgröße geschätzt, sei es als Punktschätzung oder als Intervallschätzung mit einem Konfidenzintervall.

  • Eindimensionale und mehrdimensionale Tests

    Bei einem eindimensionalen Test („one dimensional test“) messen alle Testfragen bzw. Testaufgaben („test items“) dasselbe Konstrukt. Die Beantwortung aller Items wird zu einem einzelnen (Gesamt-)Testwert („test score“, „total test score“) zusammengefasst, der global über die Ausprägung des gemessenen Merkmals informiert (z.B. Ausprägung der Intelligenz). Ein mehrdimensionaler Test („multidimensional test“) dagegen besteht aus zwei oder mehr Untertests (Teiltests, Subtests, „subtests“), die verschiedene Dimensionen des gemessenen Konstruktes separat erfassen. Alle Items, die zu einem Subtest gehören, werden jeweils zu einem Subtest- Wert („subtest score“) zusammengefasst. Im Ergebnis liegen für jede Testperson mehrere Subtest-Werte vor, die über die Ausprägungen verschiedener Teilaspekte des interessierenden Merkmals informieren (z.B. Ausprägungen verschiedener Dimensionen von Intelligenz).

  • Einfache Zufallsstichprobe

    Man zieht eine einfache Zufallsstichprobe („simple random sample“), indem man aus einer vollständigen Liste aller Objekte der finiten Zielpopulation (Auswahlrahmen, „sample frame“) nach einem „blinden“ statistischen Zufallsprinzip (z. B. mittels Zufallszahlen) eine Anzahl von Objekten auswählt, wobei die Auswahlwahrscheinlichkeiten aller Objekte gleich groß sein müssen.

  • Einzelfallstudie

    Bei einer Einzelfallstudie bzw. Fallstudie („case study“) wird ein typischer oder untypischer Einzelfall (d. h. eine Person, ein Ereignis, eine Organisation etc.) umfassend untersucht, wobei unterschiedliche Datenerhebungsmethoden zum Einsatz kommen (Beobachtung, Interview, Fragebogen, Dokumentenanalyse etc.). Fallstudien können qualitativ, quantitativ oder nach einem Mixed-Methods-Design angelegt sein. Einen Sonderfall stellen quantitative Einzelfallstudien mit quasi-experimentellen Versuchsplänen dar, die durch Messwiederholungen bei einer Versuchsperson umgesetzt werden („single subject design“, „single participant design“).

  • Elektroenzephalografie

    Die Elektroenzephalografie („electroencephalography“, EEG) ist eine Methode zur Messung der elektrischen Hirnaktivität der obersten Schicht der Hirnrinde mittels auf der Kopfhaut angebrachter Elektroden. Sie dient der Messung des Spontan-EEG im wachen oder schlafenden Zustand sowie der Messung von gezielt durch Stimuli, motorische Reaktionen, kognitive und emotionale Prozesse hervorgerufener Hirnaktivität (ereigniskorrelierte Potenziale, EKP; „event related potentials“ ERP). Als elektrophysiologisches Verfahren, das direkt die Aktionspotenziale der Nervenzellen der Großhirnrinde misst, hat das EEG eine sehr hohe Zeitauflösung, allerdings eine geringe räumliche Auflösung.

  • Elektrokardiografie (EKG)

    Die Elektrokardiografie (EKG; „electrocardiography“, ECG) ist ein physiologisches Messverfahren, das u. a. zur Erfassung der Herzschlagfrequenz dient. Mittels Elektroden auf dem Oberkörper werden die elektrischen Spannungen abgeleitet, die durch die Herzmuskulatur erzeugt werden. Das Ergebnis der Elekrokardiografie ist das Elektrokardiogramm (EKG) als grafische Darstellung der Potenzialschwankungen (inMikrovolt V) über die Zeit hinweg. Als „das EKG“ wird üblicherweise nicht nur das Elektrokardiogramm, sondern auch die Methode der Elektrokardiografie (eigentlich „die EKG“) bezeichnet.

  • Elektromyografie

    Die Elektromyografie („electromyography“, EMG) ist ein Messverfahren zur Erhebung der elektrischen Muskelaktivität. Sie kann invasiv mit Nadelelektroden oder nicht-invasiv mittels Oberflächenelektroden durchgeführt werden, die die Aktivationspotenziale der Muskelzellen ableiten. Als Ergebnis der Elektromyografie werden die Potenzialschwankungen an den Muskelzellen (in Mikrovolt, V) über die Zeit hinweg grafisch in einem Elektromyogramm (EMG) dargestellt. Als „das EMG“ wird üblicherweise nicht nur das Elektromyogramm, sondern auch die Methode der Elektromyografie (eigentlich „die EMG“) bezeichnet.

  • Elektrookulografie

    Die Elektrookulografie („electrooculography“, EOG) ist ein Verfahren zur Erfassung der elektrischen Aktivität der Augenmuskeln. Diese wird mittels Elektroden abgeleitet, die direkt auf die Haut in der Nähe des Augapfels angebracht werden. Die Elektrookulografie kommt v. a. zum Einsatz, um in der EEG-Forschung Artefakte durch Augenbewegungen zu kontrollieren. Als Ergebnis der Elektrookulografie werden die Potenzialschwankungen am Augapfel (in Mikrovolt, V) über die Zeit hinweg grafisch in einem Elektrookulogramm (EOG) dargestellt. Als „das EOG“ wird üblicherweise nicht nur das Elektrookulogramm, sondern auch die Methode der Elektrookulografie (eigentlich „die EOG“) bezeichnet.

  • Empirische Daten

    Empirische Daten („empirical data“) sind gezielt im Hinblick auf das Forschungsproblem ausgewählte und dokumentierte Informationen über die Erfahrungswirklichkeit. Sie werden mit wissenschaftlichen Datenerhebungsmethoden (Beobachtung, Interview, Fragebogen, psychologischer Test, physiologische Messung, Dokumentenanalyse) unter Nutzung entsprechender standardisierter oder nicht-standardisierter Erhebungsinstrumente (Beobachtungsplan, Interviewleitfaden, Fragebogen, Messgerät etc.) gesammelt. Aussagekräftig sind die Daten nur, wenn sie im Rahmen eines dem Forschungsproblem angemessenen Forschungsprozesses und Untersuchungsdesigns an einer passenden Stichprobe (oder an der gesamten Population) erhoben wurden, sachgerecht ausgewertet und theoriebezogen interpretiert werden.

  • Empirische Studie

    Die empirische Studie („empirical study“) dient der Lösung von inhaltlichen Forschungsproblemen auf der Basis systematischer eigener Datenerhebung und/oder Datenanalyse, wobei es sich um eine Originalstudie („original study“) oder um eine Replikationsstudie („replication study“) handeln kann.

  • Entdeckungszusammenhang von Theorien

    Im Entdeckungszusammenhang („context of discovery“) geht es darum, wie neue Theorien und Hypothesen von den Forschenden aufgestellt werden. Im Verständnis des Kritischen Rationalismus ist dies keine wissenschaftstheoretische, sondern eine psychologische Frage der Kreativität und Intuition. Eine logisch stringente Methode zur Produktion neuer wissenschaftlicher Ideen wird nicht für möglich gehalten, da gute Einfälle immer auch ein irrationales Moment haben. In der Forschungspraxis haben sich dennoch bestimmte Strategien und Techniken der Bildung neuer Theorien etabliert (z.B. Theoriearbeit, empirische Vorstudien).

  • Enzephalogramm

    Das Enzephalogramm („electroencephalogram“, EEG) ist das Ergebnis einer Elektroenzephalografie und besteht in einer grafischen Darstellung der Potenzialschwankungen (in Mikrovolt: V) im Zeitverlauf. Als „das EEG“ wird üblicherweise nicht nur das Enzephalogramm, sondern auch die Methode der Enzephalografie (eigentlich „die EEG“) bezeichnet.

  • Ethnografische Feldbeobachtung

    Die ethnografische Feldbeobachtung („ethnographic field observation“) ist eine nicht-strukturierte Beobachtung der sozialen Verhaltensweisen anderer Personen im natürlichen Umfeld, wobei kontextgebundene, komplexe Beobachtungseinheiten (z.B. Interaktionsmuster anstelle einzelner Verhaltensweisen) in den Blick genommen und von den Beobachtenden in eigenen Worten in Feldnotizen beschrieben werden. Kennzeichnend für die ethnografische Feldbeobachtung ist ein umfassendes Eintauchen der Forschenden in das zu beobachtende Feld, teilweise für längere Zeitperioden (teilnehmende Feldbeobachtung, „participant observation“, und oft in der Form der aktiven Teilnahme: „participant-as-observer“).

  • Ethnografische Feldforschung

    Da es bei der ethnografischen Feldbeobachtung um die Rekonstruktion komplexer Beobachtungseinheiten geht, wird sie meist durch Feldgespräche sowie die Sammlung von Dokumenten und Artefakten ergänzt und zusammenfassend als ethnografische Feldforschung („ethnographic field research“) bezeichnet.

  • Ethnografische Feldinterviews

    Im Rahmen ethnografischer Feldforschung werden neben Feldbeobachtungen häufig ethnografische Feldinterviews („ethnographic interview“, „field interview“) als Einzel- oder Gruppeninterviews geführt. Sie folgen keinem festen Leitfaden, sondern gehen spontan auf die Situation im Feld ein und operieren oft mit WFragen (Wer? Wie? Wo? Wozu? Wie oft?). Um ihre Nähe zum Alltagsgespräch hervorzuheben, werden sie auch als Feldgespräche oder ethnografische Forschungsgespräche bezeichnet.

  • Evaluationsforschung

    Die Evaluationsforschung widmet sich der Bewertung von Maßnahmen, Programmen (Maßnahmenbündeln), aber auch von anderen Evaluationsgegenständen. Dabei wird auf technologische oder auch grundlagenwissenschaftliche Theorien zurückgegriffen. Evaluationsforschung operiert meist stärker theorieanwendend als theorieentwickelnd.

  • Evaluationsforschung bzw. wissenschaftliche Evaluation

    Die Evaluationsforschung („evaluation research“) bzw. wissenschaftliche Evaluation („evaluation“) nutzt sozialwissenschaftliche Methoden, um einen Evaluationsgegenstand (z. B. ein Produkt oder eine Maßnahme) unter Berücksichtigung der relevanten Anspruchsgruppen (z. B. Patienten, Angehörige, Produktenwickler, Evaluationsauftraggeber) anhand bestimmter Evaluationskriterien (z.B. Akzeptanz, Wirksamkeit, Effizienz, Nachhaltigkeit) undMaßgaben zu ihren Ausprägungen zu bewerten. Die durch den Prozess der Evaluationsforschung im Ergebnis erlangte Bewertung soll in der Praxis unterschiedliche Evaluationsfunktionen erfüllen (z.B. Legitimations- oder Optimierungsfunktion), was eine aktive Evaluationsnutzung, d. h. ein praktisches Aufgreifen der laufenden und/oder abschließenden Evaluationsergebnisse verlangt (z.B. unterstützt durch schriftliche Reports, mündliche Berichte und/oder Workshops des Evaluationsteams für die relevanten Anspruchsgruppen). Die Evaluationsforschung ist den üblichen Prinzipien der Wissenschaftlichkeit sowie der Wissenschafts- und Forschungsethik verpflichtet, die für die besonderen Bedingungen der Evaluationsforschung zusätzlich in verbindliche Evaluationsstandards als Gütestandards für Evaluationsstudien gefasst wurden. Die Evaluationsforschung stellt über sozialwissenschaftliche Methodenkompetenz hinaus besondere Anforderungen an die Qualifikation der Evaluierenden.

  • Evaluationsfunktionen

    Im Zuge der Evaluationsforschung wird eine wissenschaftlich fundierte Bewertung des Evaluationsgegenstandes erarbeitet, die wiederum dazu dient, übergeordnete praxisbezogene Funktionen zu erfüllen, die sich als Erkenntnis-, Lern- und Dialog-, Optimierungs-, Entscheidungs- und Legitimationsfunktionen fassen lassen.

  • Evaluationsgegenstand oder Evaluationsobjekt

    Als Evaluationsgegenstand oder Evaluationsobjekt („evaluation object“, „evaluand“) bezeichnet man den Untersuchungsgegenstand, auf den sich eine wissenschaftliche Evaluation bezieht. Ein besonders typischer Evaluationsgegenstand sind einzelne Interventionsmaßnahmen (z.B. psychotherapeutische, pädagogische oder medizinische Verfahren) bzw. größer angelegte Programme (z. B. Weiterbildungs-, Frauenförder-, Integrationsprogramme), die auf bestimmte individuelle und kollektive Veränderungen abzielen.

  • Evaluationsklienten

    Unter Evaluationsklienten („evaluation client“) versteht man Beteiligte und/oder Betroffene, die eine Evaluation in Auftrag geben bzw. denen das Evaluationsteam Dienstleistungen bietet.

  • Evaluationskriterien

    Evaluationskriterien („evaluation criteria“) beziehen sich auf das Konzept, die Durchführung sowie die Ergebnisse einer Maßnahme bzw. eines Evaluationsobjektes und können ganz unterschiedliche Bewertungsaspekte ansprechen (z. B. ökonomische, ökologische, psychologische, soziale, ethische Kriterien). Die Festlegung der relevanten Kriterien erfolgt anhand der Zielsetzungen derMaßnahme, der Vorgaben der Auftraggebenden, der Erwartungen weiterer relevanter Stakeholder, anhand allgemein konsensfähiger Qualitätsstandards, auf der Basis von Hinweisen aus der Fachliteratur und Fachcommunity und/oder aus der Praxis. Ergänzend zur zielorientierten Evaluation anhand vordefinierter Erfolgskriterien, die sich aus den offiziellen Programmzielen ableiten („goal-based evaluation“), ist es oft sinnvoll, auch für nicht-intendierte Wirkungen einer Maßnahme offen zu sein und diese möglichst umfassend zu erheben. Hierzu eignen sich qualitative Methoden besonders gut. Die nicht-intendierten Effekte werden dann nachträglich anhand unterschiedlicher Kriterien bewertet. Bei der spezifischen Methode der zielfreien Evaluation („goal-free evaluation“) werden die offiziellen Maßnahmenziele den Evaluierenden gar nicht mitgeteilt, um so die Wahrscheinlichkeit zu erhöhen, dass sie auch nicht-intendierte Wirkungen aufdecken. Alternativ kann auch so vorgegangen werden, dass die Evaluierenden sich bewusst von den ihnen mitgeteilten offiziellen Maßnahmenzielen lösen und andere Wirkungen und Effekte erkunden. Von besonders großer praktischer Bedeutung ist die zielorientierte Evaluation der Ergebnisse einerMaßnahme im Hinblick auf ihre Effektivität (Wirksamkeit, Ausmaß der Zielerreichung) sowie ihre Effizienz (Kosten für die Zielerreichung bzw. Kosten-Nutzen-Bilanz).

  • Evaluationsnutzung

    Mit der Evaluationsnutzung („evaluation utilization“) ist die Verwendung der Ergebnisse einer wissenschaftlichen Evaluation durch Verantwortliche in der Praxis gemeint. Damit die Evaluationsergebnisse zu sachgerechten Entscheidungen (z. B. Weiterführung einerMaßnahme oder nicht) und sinnvollen Veränderungen (z. B. spezifische Verbesserungen einer Maßnahme) führen, ist die Abgabe eines Evaluationsberichtes mit entsprechenden Empfehlungen meist nicht ausreichend. Stattdessen sollten die Bedeutung und Konsequenzen der Evaluationsergebnisse mit den entsprechenden Stakeholdern diskutiert und Umsetzungsprozesse organisiert werden (z. B. durch Workshops, Weiterbildungsmaßnahmen, Einrichtung von Arbeitsgruppen). Insbesondere wenn eine Evaluation die Funktion hat, die Maßnahme fortlaufend zu verbessern, sind Bemühungen um die Evaluationsnutzung nicht nur am Projektende sinnvoll, sondern häufige Rückkopplungen von Evaluationsergebnissen an die für die Entwicklung, Realisierung und Umsetzung des Evaluationsgegenstandes Zuständigen notwendig, etwa im Sinne eines Regelkreissystems.

  • Evaluationsrespondenten

    Unter Evaluationsrespondenten („evaluation respondent“) versteht man Betroffene und Beteiligte, die an Datenerhebungen im Zuge einer Evaluationsstudie teilnehmen (z.B. mittels Fragebogen, Interview). Im Rahmen der Evaluationsforschung gilt es, für die jeweilige Evaluationsfrage die relevanten Stakeholder zu identifizieren und deren Anliegen angemessen in den Forschungsprozess einzubeziehen. Besonders wichtige Stakeholder sind in der Regel die Auftraggebenden der Evaluation, die Maßnahmenverantwortlichen sowie die Zielgruppen der Maßnahme.

  • Exhaustion

    Theoriekonträre empirische Ergebnisse können zum Anlass genommen werden, die betreffende Theorie nicht komplett zu verwerfen, sondern zu modifizieren. Eine typische Theoriemodifikation besteht in der Exhaustion („exhaustion“), bei der der Geltungsbereich der Theorie eingeschränkt wird, um theoriekonträre Fälle auszuschießen. Diese Einschränkung des Geltungsbereiches läuft auf eine Erweiterung des Wenn-Teils der Theorie durch eine oder mehrere logische Und-Komponenten hinaus. Exhaustion kann den empirischen Bestätigungsgrad einer Theorie steigern, allerdings auf Kosten ihres Informationsgehaltes bzw. Allgemeingültigkeitsanspruchs.

  • Experimentelle Studie/randomisierte kontrollierte Studie

    Die experimentelle Studie/randomisierte kontrollierte Studie („experimental study“) bildet für die Prüfung einer Kausalhypothese zunächst künstlich nach dem Zufallsprinzip mindestens zwei Gruppen (Randomisierung; „randomization“, „random assignment to groups“), behandelt diese systematisch unterschiedlich (experimentelle Manipulation der unabhängigen Variable/n; „experimental manipulation“, „manipulated independent variable/ s“), und misst die in den Experimental- und Kontrollgruppen resultierenden Effekte auf die abhängige/n Variable/n. Man spricht auch von einem echten Experiment (im Unterschied zum Quasi-Experiment) oder von einer randomisierten Kontrollgruppenstudie bzw. einer randomisierten kontrollierten Studie („randomized controlled trial“, RCT).

  • Experten-Interview

    Das Experten-Interview („expert interview“) ist eine Variante des Leitfaden-Interviews, bei der die Befragungspersonen als fachliche Expertinnen und Experten zu einem Thema befragt werden und ihr Spezialwissen (strukturelles Fachwissen und/oder Praxis-/Handlungswissen) erschlossen werden soll. Die Definition und Rekrutierung der Experten stellt hier eine besondere Herausforderung dar. Zudem muss von den Interviewenden eine geeignete Rolle gewählt und eingenommen werden (z.B. als Co-Experte oder Laie).

  • Explanative Studie

    Die explanative Studie („explanatory study dient der Überprüfung vorher aufgestellter Hypothesen und somit auch der Theorien, aus denen sie abgeleitet wurden.

  • Explorative Studie

    Die explorative Studie („exploratory study“) dient der genauen Erkundung und Beschreibung eines Sachverhaltes mit dem Ziel, wissenschaftliche Forschungsfragen, Hypothesen und Theorien zu entwickeln.

  • Externe Validität

    Externe Validität („external validity“): Inwiefern können die Ergebnisse der Studie – vor allem im Sinne der Wirkungen einer Maßnahme – auf andere Orte, Zeiten, Wirkvariablen, Treatmentbedingungen oder Personen als die konkret untersuchten verallgemeinert werden? Die externe Validität ist vor allem von der Qualität des Untersuchungsdesigns und der Stichprobenziehung (in der Umfrageforschung idealerweise probabilistische bzw. repräsentative Stichprobe; in der Experimentalforschung dagegen meist nicht-probabilistische Stichproben) abhängig.

  • Externe Validität

    („external validity“) Eine Untersuchung ist extern valide, wenn ihre Ergebnisse über die Bedingungen der Untersuchungssituation und über die untersuchten Personen hinausgehend generalisierbar sind. Die externe Validität sinkt meist mit wachsender Unnatürlichkeit der Versuchsbedingungen im Hinblick auf die alltägliche Lebenswelt und mit abnehmender Repräsentativität der Versuchspersonen im Hinblick auf die Zielpopulation.

  • Eye-Tracking

    Das Eye-Tracking („eye tracking“, Blickbewegungsmessung) ist ein Messverfahren zur Erfassung von Blickbewegungen, das mittels hochauflösender Kameras Stellung und Bewegung der Augen registriert. Entsprechende Blickbewegungskameras werden entweder in Brillen integriert oder an einem Monitor oder Display angebracht, auf dem das Stimulusmaterial präsentiert wird. Im Ergebnis kann der Blickbewegungsverlauf auf dem Stimulusmaterial statisch als Grafik oder dynamisch als Video visualisiert werden. Zudem können diejenigen Bereiche des Stimulusmaterials, die besonders häufig fixiert wurden, in einer grafischen Darstellung ähnlich einem Wärmebild (sog. „heat maps“) farblich markiert werden.

  • Faktorenanalyse

    Die Faktorenanalyse bündelt die Variablen gemäß ihrer Interkorrelationen zu Faktoren. Man unterscheidet explorative Faktorenanalysen („exploratory factor analysis“, EFA), die ohne Vorannahmen durchgeführt werden und keine Signifikanzprüfung enthalten, von konfirmatorischen Faktorenanalysen („confirmatory factor analysis“, CFA), bei denen ein Faktorladungsmuster als Hypothese vorgegeben und inferenzstatistisch geprüft wird.

  • Fallibilismus

    Gemäß Kritischem Rationalismus ist jedes Wissen fehlbar und somit nur hypothetisches Wissen bzw. Vermutungswissen. Ein letztgültiger Wahrheitsanspruch kann, wie das Münchhausen-Trilemma verdeutlicht, nicht begründet werden (Fallibilismus; „fallibilism“).

  • Falsifikationismus bzw. Kritizismus

    Der Kritische Rationalismus beschreibt Erkenntnisfortschritt als Aussondern nicht-bestätigter Theorien durch Falsifikation bzw. umgekehrt als Zurückbehalten von nichtfalsifizierten – d. h. vorläufig bestätigten bzw. bewährten – Theorien. Er wird deswegen auch als Falsifikationismus („falsificationism“) sowie als Kritizismus („criticism“) bezeichnet und stellt ein ausdrückliches Gegenmodell zu dem auf Verifikation basierenden Empirismus bzw. Positivismus dar.

  • Feldstudie

    Die Feldstudie („field study“) findet im natürlichen Umfeld statt, so dass die Untersuchungsbedingungen den Alltagsbedingungen ähneln und auf diese möglichst gut übertragbar sind. Erkauft wird die Natürlichkeit der Bedingungen durch eine verminderte Kontrolle von Störvariablen, was die kausale Interpretierbarkeit der Befunde erschwert.

  • Fixed-Effect-Modell

    Das Fixed-Effect-Modell (Modell fester Effekte) geht davon aus, dass die Primärstudien im Studienpool alle denselben Populationseffekt abbilden und Differenzen nur auf Stichprobenfehler zurückgehen. In die Gewichtungsfaktoren geht nur der Stichprobenumfang ein.

  • Fokusgruppen-Diskussion

    Eine Fokusgruppen-Diskussion („focus group interview“, „focus group discussion“) ist eine halbstrukturierte Gruppendiskussion zu einem konkreten Thema oder Produkt, das als Diskussionseinstieg präsentiert wird (Grundreiz). Die Teilnehmerzahl pro Gruppe liegt in der Regel bei 4–8 Personen. Pro Studie werden meist rund 4–8 Fokusgruppen mit einer Länge von jeweils 90–120 Minuten im Forschungslabor durchgeführt. Es wird einerseits eine Selbstläufigkeit der Gruppendiskussion angestrebt, gleichzeitig sorgt eine Moderatorin bzw. ein Moderator („moderator“, „facilitator“) dafür, dass die Gruppe beim Thema bleibt und vorher festgelegte Leitfragen (Diskussionsleitfaden) bearbeitet werden.

  • Fokussiertes Interview

    Das fokussierte Interview („focussed interview“, „focused interview“) ist eine Variante des Leitfaden-Interviews, bei der ein bestimmtes Anschauungsobjekt im Mittelpunkt steht bzw. es darum geht, die Reaktionen der Interviewten auf das fokussierte Objekt im Detail qualitativ zu ermitteln. Das fokussierte Objekt ist oft eine mediale Darstellung (z. B. Film, Fernseh- oder Radiosendung, Werbeanzeige) und wird zu Beginn oder im Verlauf des Interviews präsentiert. Ein fokussiertes Interview kann als Einzelinterview („individual focused interview“) oder als Gruppeninterview („focused group interview“) durchgeführt werden.

  • Formatives Messmodell

    Bei einem formativen Messmodell geht man davon aus, dass das zu messende Konstrukt die Wirkung oder Folge derMerkmalsausprägungen der Indikatoren ist. Als Messinstrument wird ein Index gebildet, in den heterogene Kennwerte eingehen (sog. formative Indikatoren, durch die das Konstrukt ursächlich gebildet wird).

  • Formatives Messmodell

    Bei einem formativen Messmodell greift man zur Erfassung des latenten Merkmals auf Indikatoren zurück, die das latente Merkmal erzeugen. Diese formativen Indikatoren („formative indicators“, „cause indicators“) können einander auch sehr unähnlich sein.

  • Forschungsethik

    Die Forschungsethik („research ethics“, „ethics of research“) umfasst alle ethischen Richtlinien, an denen sich Forschende bei ihrer Forschungstätigkeit – und zwar hier speziell bei der Datenerhebung und Datenanalyse im Rahmen empirischer Studien – orientieren sollen. Im Mittelpunkt stehen der verantwortungsvolle Umgang mit menschlichen und tierischen Untersuchungsteilnehmenden und ihr Schutz vor unnötigen oder unverhältnismäßigen Beeinträchtigungen durch den Forschungsprozess. Dass und wie der Forschungsethik in einer konkreten Studie Genüge getan wird, sollte im Vorfeld genau überlegt und im Forschungsbericht erläutert werden. Immer häufiger wird in verschiedenen human- und sozialwissenschaftlichen Disziplinen auch verlangt, dass geplante Studien mit menschlichen oder tierischen Probanden vor ihrer Durchführung durch eine Ethikkommission geprüft und genehmigt werden.

  • Forschungsfrage

    Die Forschungsfrage („research question“) basiert auf dem bisherigen Forschungsstand und zielt v. a. auf Forschungslücken. Sie fordert dazu auf zu ermitteln, ob Regelhaftigkeiten vorliegen, welche Beschaffenheit sie haben, in welche Richtung sie weisen, wie stark sie sind, wie sie zustande kommen etc. Die Beantwortung von Forschungsfragen trägt zur Erkundung eines Sachverhaltes sowie zur Generierung neuer Theorien bei.

  • Forschungsfragen

    Bei Forschungsfragen („research question“) wird ergebnisoffen gefragt, ob ein Effekt existiert. Wenn ja, welche Richtung und Größe sowie welche qualitative Beschaffenheit hat er? Empirische Befunde zu Forschungsfragen dienen der Gegenstandsbeschreibung und Hypothesenbildung.

  • Forschungshypothese

    Die Forschungshypothese („research hypothesis“) wird aus etablierten Theorien und/oder gut gesicherten empirischen Befunden abgeleitet und postuliert die Existenz, Richtung und Stärke eines bestimmten Effekts. Anhand von Hypothesenprüfungen werden bestehende Theorien getestet und weiterentwickelt.

  • Forschungshypothesen

    Forschungshypothesen („research hypotheses“) postulieren die Existenz, die Richtung und die Stärke unterschiedlicher Arten von Effekten. Zu jeder Forschungshypothese bzw. Alternativhypothese („research hypothesis“, „alternative hypothesis“: H1) lässt sich eine komplementäre Nullhypothese („null hypothesis“: H0) aufstellen, die den postulierten Effekt negiert. Das Hypothesenpaar bestehend aus H1 und H0 bildet die Grundlage des Nullhypothesen-Signifikanztests („null hypothesis significance testing“, NHST), einer sehr verbreiteten Methode der statistischen Hypothesenprüfung. Bei der Darstellung der Hypothesen in Forschungsberichten und Publikationen werden nur die Forschungshypothesen (nicht die Nullhypothesen) angegeben.

  • Forschungsproblem

    Das Forschungsproblem („research problem“) kennzeichnet, welche Erkenntnisse zu welchen Aspekten des Untersuchungsgegenstandes auf welcher theoretischen, empirischen und methodischen Basis gewonnen werden sollen. Das Forschungsproblem wird auch oft als Fragestellung einer Studie bezeichnet und in mehrere Forschungshypothesen und/oder Forschungsfragen ausdifferenziert.

  • Forschungsthema

    Das Forschungsthema („research subject“) benennt einen Untersuchungsgegenstand.

  • Funktionelle Magnetresonanztomografie (fMRT)

    Die funktionelleMagnetresonanztomografie (fMRT; „functional magnetic resonance imaging“, fMRI) ist ein bildgebendes Verfahren, das es erlaubt, im Zuge spezifischer Aufgaben oder Tätigkeiten aktivierte Hirnareale zu lokalisieren oder verschaltete Netzwerke zu identifizieren (z.B. sog. Default- Mode oder Resting-State-Netzwerke). Die untersuchte Person wird dabei in eine Untersuchungskammer (Kernspintomograf) geschoben. Dort werden starke Magnetfelder erzeugt, mit deren Hilfe die Anatomie (festes Gewebe vs. Flüssigkeit) sowie der Blutsauerstoffgehalt des Gehirns messbar sind. In stark durchbluteten Arealen ist das Blut sauerstoffreicher, was seine magnetischen Eigenschaften verändert. Steigt bei einem bestimmten Stimulus oder einer bestimmten Aufgabe im Vergleich zum Ausgangszustand der Sauerstoffgehalt im Blut in einer bestimmten Hirnregion statistisch überzufällig an (sog. BOLD-Kontrast, „blood oxygenation level dependence“), so wird das betreffende Hirnareal als aktiviert interpretiert. Aktivierte Areale werden in der fMRT-Aufnahme des Gehirns (fMRT-Scan, Hirn-Scan) farblich markiert. Als hämodynamisches Verfahren, das neuronale Aktivität indirekt über den erhöhten Stoffwechselumsatz der lokal aktiven Nervenzellen erfasst, hat die fMRT eine sehr hohe räumliche Auflösung, allerdings eine geringe Zeitauflösung.

  • Gelegenheitsstichprobe oder Ad-hoc-Stichprobe

    Bei einer Gelegenheitsstichprobe oder Ad-hoc-Stichprobe („convenience sample“, „ad hoc sample“, „accidental sample“, „haphazard sample“, „opportunistic sample“), manchmal auch: anfallende/angefallene Stichprobe, werden willkürlich Personen oder Objekte für die Stichprobe einer Untersuchung ausgewählt, die gerade zur Verfügung stehen oder leicht zugänglich sind (z. B. öffentliche Online-Befragung, Passantenbefragung).

  • Gerichtete Hypothesen

    Gerichtete Hypothesen werden durch einen einseitigen Signifikanztest geprüft, indem zunächst die Richtung des Effekts betrachtet und dann die einseitige Irrtumswahrscheinlichkeit (Fläche des H?-Modells, die vom empirischen Wert auf einer Seite der Prüfverteilung abgeschnitten wird) mit dem Signifikanzniveau von 5% verglichen wird. Alternativ wird beim Rechnen per Hand (z. B. in Klausuren) für die Signifikanzentscheidung der empirische Wert mit dem kritischen Wert für ? = 5% verglichen, der auf der einen Seite des H? -Modells die Grenze des einseitigen Ablehnungsbereichs für die H? bildet.

  • Gesamteffekt

    Bei der Metaanalyse wird aus den Effektgrößenmaßen der einzelnen Primärstudien ein gewichteter Mittelwert berechnet, der den Gesamteffekt in der Population schätzt. Im Zuge der Metaanalyse kann überprüft werden, ob ein fraglicher Effekt in der Population vorliegt (Signifikanztest für den Gesamteffekt) und wie groß er ist (Effektgrößenschätzung des Gesamteffekts als Punkt- und/oder Intervallschätzung). Häufig werden die Wirksamkeit einer Maßnahme oder die Auswirkung einer Verhaltensweise mittels Metaanalyse untersucht.

  • Geschichtete bzw. stratifizierte Stichprobe

    Man zieht ein geschichtete bzw. stratifizierte Zufallsstichprobe („stratified random sample“), indem man die Zielpopulation auf der Basis eines Merkmals oder mehrerer Merkmale in Teilpopulationen (Schichten) einteilt – pro Merkmalsausprägung bzw. Merkmalskombination entsteht eine Teilpopulation – und aus jeder dieser Schichten eine einfache Zufallsstichprobe entnimmt. Ziel der geschichteten zufälligen Stichprobenauswahl ist es, gegenüber der einfachen Zufallsstichprobe im Rahmen populationsbeschreibender Studien die Genauigkeit von Parameterschätzungen zu erhöhen.

  • Glaubwürdigkeitsintervall

    Bei der Intervallschätzung nach dem Bayes-Ansatz spricht man statt vom Konfidenzintervall vom Glaubwürdigkeitsintervall („credible intervall“), in dessen Berechnung neben den Stichprobendaten auch Vorinformationen der Forschenden (auf der Basis des Forschungsstandes) einfließen.

  • Global-repräsentative Stichprobe

    Eine global-repräsentative Stichprobe liegt vor, wenn die Zusammensetzung der Stichprobe in allen Merkmalen und Merkmalskombinationen der Populationszusammensetzung entspricht. Dies kann nur durch probabilistische Stichprobenverfahren sichergestellt werden, sofern gleichzeitig ein Mindeststichprobenumfang eingehalten wird.

  • Good-Enough-Prinzip

    Das Good-Enough-Prinzip („good enough principle“) besagt, dass für die Annahme einer Alternativhypothese festgelegt werden sollte, welche Effektgrößen hinsichtlich praktischer Bedeutsamkeit „gut genug“ sind. Dass ein Effekt vom Wert Null abweicht, wird als nicht gut genug angesehen. Stattdessen sollte ein ganzer Bereich unbedeutsam kleiner Effekte definiert und die Alternativhypothese nur dann akzeptiert werden, wenn der empirische Effekt außerhalb des Bereichs vernachlässigbar kleiner Effekte liegt.

  • Größe des Effekts (Effektgröße)

    („effect size“) Effekte, d. h. Unterschiede zwischen Gruppen, Zusammenhänge zwischen Variablen oder Veränderungen von Untersuchungsobjekten über die Zeit, können in ganz unterschiedlicher Größe auftreten. Eine Hypothese, bei der die erwartete Effektgröße (oder zumindest die Größenordnung: kleiner, mittlerer oder großer Effekt) angegeben ist, heißt spezifische Hypothese („specific hypothesis“). Wird dagegen die Effektgröße nicht spezifiziert, so handelt es sich um eine unspezifische Hypothese („non-specific hypothesis“).

  • Grundlagenforschung

    Die Grundlagenforschung widmet sich der Entwicklung und Überprüfung wissenschaftlicher Theorien.

  • Grundlagenforschung bzw. akademische Forschung

    Die Grundlagenforschung („basic research“, „pure research“) bzw. akademische Forschung („academic research“) zielt auf die Erweiterung des wissenschaftlichen Kenntnisstandes ab.

  • Grundlagenwissenschaftliche Studie

    Die grundlagenwissenschaftliche Studie („basic research study“) dient primär dem wissenschaftlichen Erkenntnisfortschritt.

  • Grundlagenwissenschaftliche Theorien

    Grundlagenwissenschaftliche Theorien dienen der Beschreibung, Erklärung und Vorhersage von Sachverhalten jeglicher Art.

  • Gruppenstudie

    Bei einer Gruppenstudie („group design“) wird eine Stichprobe von Objekten aus der Grundgesamtheit untersucht und zusammenfassend ausgewertet – dies ist sowohl in der qualitativen als auch in der quantitativen Forschung der häufigste Fall (z.B. quantitative Aggregatwerte wie Mittelwerte, Prozentwerte, Korrelationskoeffizienten oder qualitative Aggregate wie Kategorien und Typen). Eine Gruppenstudie kann nicht nur als Stichprobenstudie, sondern auch als Vollerhebung realisiert werden, indem die gesamte Population untersucht wird, was nur bei kleinen Populationen möglich ist.

  • Guttman-Skala

    Eine Guttman-Skala („guttman scale“) ist eine psychometrische Skala, die aus mehreren Aussagen besteht, die alle dasselbe Merkmal messen und jeweils mit Zustimmung oder Ablehnung (Ja-/Nein-Format) einzuschätzen sind. Die Guttman-Items einer Skala werden so konstruiert, dass sie graduell jeweils eine immer stärkere Intensität des gemessenen Merkmals repräsentieren. Eine Person, die dem vierten Item auf der Skala zustimmt, muss also alle vorherigen, leichteren Items ebenfalls bejaht haben, wenn das Skalierungsmodell zutrifft. Der Skalenwert der Guttman-Skala berechnet sich als Summe aller zugestimmten Items.

  • Hypothesenprüfende Einzelfalluntersuchung

    Bei der hypothesenprüfenden Einzelfalluntersuchung („single-subject research“, „single case research“, „single participant research“) geht es darum, Einzelfallhypothesen – also Annahmen über Merkmale oder Verhaltensweisen einer einzelnen Person bzw. eines einzelnen Objektes – anhand eines systematisch erhobenen quantitativen Datensatzes zu überprüfen. Für hypothesenprüfende Einzelfallanalysen werden Verhaltensstichproben derselben Person in verschiedenen Situationen, zu unterschiedlichen Zeitpunkten und/oder unter variierenden Aufgabenstellungen gezogen. Zur Auswertung eignen sich v. a. visuelle Verfahren sowie nonparametrische (verteilungsfreie) Signifikanztests.

  • Index

    Ein Index („index“) dient der Operationalisierung komplexer bzw. mehrdimensionaler theoretischer Konstrukte auf individueller Ebene (z.B. Merkmale einer Person) sowie oft auch auf kollektiver Ebene (z.B. Merkmale von Märkten oder Gesellschaften) auf der Basis eines formativen Messmodells. Ein Index besteht aus einem Satz von formativen Indikatorvariablen, die formal und inhaltlich sehr heterogen sein können. Der Index schreibt vor, welche Indikatorvariablen in den Index eingehen und in welcher Weise sie zu standardisieren, zu gewichten und additiv oder multiplikativ zu einem Indexwert zu verrechnen sind. Die Aussagekraft von Indexwerten muss theoretisch begründet und möglichst auch empirisch geprüft werden.

  • Index als standardisierter Wert

    Neben dem Index als Messverfahren, das unterschiedliche formative Indikatoren zur Messung eines komplexen Merkmals verknüpft, existiert der Index („index“) bzw. die „Rate“ als ein standardisierter Kennwert für ein einfaches Merkmal. Er wird gebildet, indem man die interessierende Indikatorvariable (z. B. Häufigkeit von Straftaten, Ehescheidungen, Geburten, Körpergewicht, Schwangerschaften trotz Verhütung) mit einer festgelegten Größe in Beziehung setzt, wodurch sich die inhaltliche Aussagekraft und Interpretierbarkeit der Variable erhöht.

  • Induktion

    Die Induktion („induction“) ist eine Schlussfolgerung vom Speziellen auf das Allgemeine, in der empirischen Sozialforschung eine Schlussfolgerung von empirischen Daten über einzelne beobachtete Fälle auf übergeordnete wissenschaftliche Theorien, die über eine Reihe von Fällen verallgemeinerbar sind. Beim induktiven Schließen beginnt der Erkenntnisprozess mit Daten, und es werden aus den Daten schrittweise Muster herausgearbeitet. Mittels Induktion sollen neue Theorien gebildet, aber auch bestätigt werden. Die Induktion ist heute vor allem im qualitativen Paradigma der empirischen Sozialforschung etabliert.

  • Informationsgehalt einer Theorie

    Falsifizierbare Theorien unterscheiden sich in ihrem Informationsgehalt (empirischen Gehalt; „empirical content“) bzw. im Grad der Falsifizierbarkeit („degree of falsifiability“), d. h. gleichzeitig im Grad ihrer Allgemeingültigkeit und Präzision. Eine Theorie mit hohem Informationsgehalt zeichnet sich durch einen breiten Gültigkeitsbereich (Oder-Erweiterung der Wenn-Komponente: höhere Allgemeingültigkeit) und sehr präzise Vorhersagen aus (Und- Erweiterung der Dann-Komponente: höhere Präzision). Für sie existieren mehr Falsifikatoren als für eine Theorie mit geringem Informationsgehalt. Kann sich die Theorie mit hohem Informationsgehalt trotz vielfältiger Falsifikationsmöglichkeiten empirisch dennoch bewähren, trägt dies im Verständnis des Kritischen Rationalismus stärker zum Erkenntnisgewinn bei als die Prüfung informationsärmerer Theorien.

  • Inhaltsanalytisches Kategoriensystem

    Das inhaltsanalytische Kategoriensystem („content analysis coding system“, „content analytic coding system“, „content analytic coding scheme“) als vollstandardisiertes Erhebungsinstrument operationalisiert theoriebasiert immer genau jene formalen und inhaltlichen Merkmale von Dokumenten, die für das jeweilige Forschungsproblem relevant sind. Damit das Kategoriensystem intersubjektiv nachvollziehbar ist, wird es mit genauen Definitionen aller Kategorien und Kodieranweisungen versehen, dadurch entsteht ein Codebuch. Die Kodierung der Dokumente anhand des Codebuches erfolgt durch geschulte Kodierende. Die psychometrischen Gütekriterien des Kategoriensystems, insbesondere Validität und Reliabilität sind zu prüfen und ihre mindestens ausreichende Qualität ist zu belegen (argumentativer Rückgriff auf Theorien und Forschungsstand zur Definition und Inhaltsvalidierung der Kategorien; Validitäts-Beurteilung der Kategorien bzw. des Kategoriensystems durch Fachexperten; empirische Reliabilitätsprüfung des Kategoriensystems).

  • Interaktion zweiter Ordnung

    Wir sprechen von einer Interaktion zweiter Ordnung (A B C-Interaktion, Tripel-Interaktion, „second order interaction“), wenn die Art der Interaktion zwischen zwei Faktoren (Interaktion erster Ordnung, z. B. A B) von den Stufen eines dritten Faktors (z. B. Faktor C) abhängt.

  • Interaktionseffekt

    Ein signifikanter Interaktionseffekt A B in der zweifaktoriellen Varianzanalyse besagt, dass beide Faktoren nicht einfach ganz normal additiv, sondern in anderer, nicht-additiver Weise zusammenwirken. Anlässlich eines signifikanten Interaktionseffekts in der zweifaktoriellen Varianzanalyse kann eine ungerichtete Interaktionshypothese angenommen werden. Gerichtete Interaktionshypothesen werden über Interaktionskontraste inferenzstatistisch abgesichert.

  • Interne Validität

    Interne Validität („internal validity“): Wie zweifelsfrei kann für die interessierenden Effekte tatsächlich der vermutete Kausaleinfluss der unabhängigen Variable/n auf die abhängige/n Variable/ n belegt werden? Die interne Validität ist vor allem von der Qualität des Untersuchungsdesigns (experimentelle, quasi-experimentelle oder vorexperimentelle Studie) und dessen Umsetzung abhängig.

  • Interne Validität

    („internal validity“) Eine Untersuchung ist intern valide, wenn ihre Ergebnisse kausal eindeutig interpretierbar sind in dem Sinne, dass Effekte in den abhängigen Variablen zweifelsfrei auf die Wirkung der unabhängigen Variablen zurückzuführen sind. Die interne Validität steigt durch die sorgfältige Kontrolle von personenbezogenen Störvariablen (v. a. durch Randomisierung) sowie von untersuchungsbedingten Störvariablen (z. B. Registrieren, Ausschalten oder Konstanthalten von Störeinflüssen durch standardisierten Ablauf des Experimentes; Verblindung von Versuchspersonen und Versuchsleitenden etc.).

  • Interpretation der Ergebnisse von statistischen Signifikanztests

    Der Rückschluss vom Ergebnis eines statistischen Hypothesentests (signifikantes versus nicht-signifikantes Ergebnis) auf die zu prüfende Theorie ist definitionsgemäß mit einem statistischen Fehler behaftet. Er ist darüber hinaus auf theoretischer Ebene unsicher und muss kritisch diskutiert werden, da die Aussagekraft der Daten von der Gültigkeit diverser Hilfs- und Instrumententheorien abhängt, auf denen die Methodenentscheidungen im Forschungsprozess (z. B. Operationalisierung, Stichprobenauswahl) basieren.

  • Interpretative Phänomenologische Analyse

    Die Interpretative Phänomenologische Analyse („interpretative phenomenological analysis“, IPA) arbeitet induktiv die zentralen Bedeutungen autobiografischer Dokumente heraus. Sie wird auf vorgefundene autobiografische Texte (z.B. Briefe, Tagebücher) sowie auf im Forschungsprozess generierte Dokumente (v. a. Transkripte von narrativen bzw. biografischen Interviews) angewendet. Zielsetzung ist es, das subjektive Erleben bestimmter autobiografischer Erfahrungen aus den Dokumenteninhalten zu rekonstruieren.

  • Intervallschätzung

    Bei einer Intervallschätzung („interval estimation“) wird ein unbekannter Populationsparameter durch einen auf der Basis der Stichprobenergebnisse konstruierten Wertebereich (Konfidenzintervall, Vertrauenintervall, „confidence interval“, CI) geschätzt. Dieser Wertebereich wird so konstruiert, dass sich in ihm 1 – ? = 99% oder 1 – ? = 95% (Konfidenzkoeffizient, Vertrauenswahrscheinlichkeit) aller möglichen Populationsparameter befinden, die den empirisch ermittelten Stichprobenkennwert erzeugt haben können. Der Konfidenzkoeffizient 1 – ? ist das Komplement zum Signifikanzniveau ?, das als zulässige Obergrenze der Irrtumswahrscheinlichkeit konventionell auf 1% bzw. 5% festgelegt ist.

  • Intervallskala

    Eine Intervallskala („interval scale“) ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass die Rangordnung der Zahlendifferenzen zwischen je zwei Objekten der Rangordnung der Merkmalsunterschiede zwischen je zwei Objekten entspricht. Die Intervallskala zeichnet sich durch Äquidistanz bzw. Gleichabständigkeit der Messwerte aus.

  • Interventionsforschung bzw. anwendungsorientierte Forschung

    Die Interventionsforschung bzw. anwendungsorientierte Forschung widmet sich der Entwicklung und Überprüfung technologischer Theorien.

  • Interview-Leitfaden

    Der Interview-Leitfaden („interview guide“) ist ein oft als „halbstandardisiert“ bezeichnetes Instrument der Datenerhebung, weil zwar im Vorfeld ein Fragenkatalog festgelegt wird, aber keinerlei Antwortvorgaben existieren. Zudem kann und soll der Leitfaden flexibel der Interviewsituation angepasst werden (z. B. hinsichtlich Wortwahl, Reihenfolge der Fragen, Zusatzfragen). Die „Standardisierung“ des Leitfadens besteht also nicht in exakt vorgegebenen Fragenformulierungen, sondern in der inhaltlichen Vergleichbarkeit des Fragenkatalogs.

  • Irrtumswahrscheinlichkeit

    Wir bezeichnen die bedingte Wahrscheinlichkeit, dass unter Annahme der Gültigkeit der H? das empirische oder ein extremeres Stichprobenergebnis (D: empirische Daten) auftritt, als Irrtumswahrscheinlichkeit p(D | H?). Grafisch entspricht diese Wahrscheinlichkeit p(D | H?) der Fläche, die der empirische Wert bzw. die empirische Prüfgröße, die aus den Stichprobendaten berechnet wird (z.B. empirischer t-Wert), vom H? -Modell (z.B. einer t-Verteilung mit entsprechenden Freiheitsgraden) abschneidet.

  • Itemanalyse

    Im Rahmen der Itemanalyse („item analysis“) wird anhand einer möglichst repräsentativen Stichprobe der Zielpopulation des Tests die Verteilung der Rohwerte der Items und des Gesamttests betrachtet. Zudem werden die Itemschwierigkeiten und Itemtrennschärfen berechnet und bewertet. Auch die Dimensionalitätsprüfung – also die Frage, ob sich alle Items eines Messinstruments auf eine Skala zusammenfassen lassen (eindimensionaler Test) oder ob Subskalen zu bilden sind (mehrdimensionaler Test) – wird der Itemanalyse zugerechnet. Ziel der Itemanalyse ist es, problematische Items zu entdecken und durch ihre Modifikation oder Eliminierung die Testgüte des Tests (v. a. Reliabilität und Validität) zu erhöhen.

  • Itemschwierigkeit

    Die Schwierigkeit eines Items („item difficulty“) wird durch einen Schwierigkeitsindex ausgedrückt. Ein Item ist umso schwieriger, je geringer seine Zustimmungs- bzw. Lösungsrate in der betrachteten Stichprobe ausfällt. Umgekehrt wird ein leichtes Item von fast allen Testpersonen in Schlüsselrichtung beantwortet bzw. korrekt gelöst. Bei nominalskalierten Items wird der Schwierigkeitsindex über den Prozentsatz der Zustimmer/Richtiglöser berechnet. Bei intervallskalierten Items entspricht der Schwierigkeitsindex dem Item-Mittelwert, der wiederum in einen Prozentwert umgerechnet werden kann.

  • Itemtrennschärfe

    Die Trennschärfe eines Items („item discriminability“) gibt an, wie gut die Beantwortung des betreffenden Items das Gesamttestergebnis vorhersagt. Bei trennscharfen Items gilt, dass Personen mit hohem (niedrigem) Testwert auch bei dem betreffenden Item eine hohe (niedrige) Punktzahl erreichen. Der Trennschärfe-Index berechnet sich als Korrelation des Items mit dem Gesamttestwert (als Zusammenfassung aller Items ohne das betrachtete Item).

  • Iterationshäufigkeitstest

    Bei einer Einzelfalluntersuchung mit dichotomer abhängiger Variable lässt sich die Alternativhypothese, dass der Wechsel zwischen dem Auftreten beider Merkmalsausprägungen nicht zufällig, sondern systematisch erfolgt, mit dem Iterationshäufigkeitstest prüfen, wobei entweder der exakte Iterationshäufigkeitstest oder – bei größeren Messwertreihen (n1 und n2 > 30) – der asymptotische Iterationshäufigkeitstest (über die Normalverteilung) zu nutzen sind.

  • Kanonische Korrelationskoeffizienten CR

    Kanonische Korrelationskoeffizienten CR („canonical correlation coefficients“) sind die paarweisen Korrelationen zwischen den Prädiktor- und Kriteriumsvariablenfaktoren, sie quantifizieren die Enge (nicht jedoch die Richtung) der Zusammenhänge der Variablensätze. In einer kanonischen Korrelationsanalyse können maximal so viele kanonische Korrelationskoeffizienten berechnet werden, wie sich Variablen im kleineren Variablensatz befinden. Die kanonischen Korrelationskoeffizienten werden auf Signifikanz geprüft. Enge und Richtung des Einflusses der einzelnen Prädiktoren und Kriterien auf den Gesamtzusammenhang sind an deren Faktorladungen ablesbar.

  • Kanonische Zusammenhangshypothese

    Eine kanonische Zusammenhangshypothese behauptet, dass zwischen mehreren Prädiktorvariablen einerseits und mehreren Kriteriumsvariablen andererseits ein systematischer Zusammenhang besteht. Sie wird mit der kanonischen Korrelationsanalyse überprüft. Dabei werden die Prädiktoren sowie die Kriterien jeweils zu Faktoren gebündelt (pro Prädiktor- und Kriteriumsvariablensatz entspricht die Zahl der gebildeten Faktoren jeweils der Zahl der Variablen).

  • Kardinalskala bzw. metrische Skala

    Mit der Kardinalskala bzw. metrischen Skala („metric scale“) sind als Oberbegriff sowohl die Intervall- als auch die Verhältnisskala angesprochen. Denn in der sozialwissenschaftlichen Forschungsstatistik existieren keine wichtigen Verfahren, die speziell nur auf Verhältnisskalen zugeschnitten sind.

  • Klassische Testtheorie

    Die Klassische Testtheorie (KTT; „classical test theory“, auch: „true score theory“, TST) nimmt an, dass das Testergebnis direkt dem wahren Ausprägungsgrad des untersuchten Merkmals entspricht, dass aber jedeMessung oder jedes Testergebnis zusätzlich von einem Messfehler überlagert ist.

  • Klumpenstichprobe

    Man zieht eine Klumpenstichprobe („cluster sample“), indem man aus einer in natürliche Gruppen (Klumpen) gegliederten Population nach dem Zufallsprinzip eine ausreichende Anzahl von Klumpen auswählt und diese Klumpen dann vollständig untersucht.

  • Kodierung gemäß Grounded-Theory-Methodologie

    Die Grounded-Theory-Methodologie („grounded theory methodology“, GTM) ist eine qualitative Forschungsstrategie, die auf theoretischer Stichprobenziehung („theoretical sampling“), der Kodiermethode des permanenten Vergleichs („constant comparison coding/analysis“) sowie dem systematischen Verfassen von Memos basiert („memoing, memowriting“). Im Ergebnis läuft die Methode auf eine gegenstandsverankerte Theorie („grounded theory“) hinaus. Die Kodierung gemäß GTM kann auf vorgefundene ebenso wie auf forschungsgenerierte Dokumente angewendet werden, wobei der gesamte Forschungsprozess an der Grounded-Theory-Methodologie auszurichten ist. Im Unterschied zur qualitativen Inhaltsanalyse und zur Interpretativen Phänomenologischen Analyse, deren Kategorien eher zusammenfassenddeskriptiven Charakter haben, werden mit der Kodiermethode des permanenten Vergleichs im Rahmen der GTM Kategorien gebildet, die einen erklärenden Charakter aufweisen. Die Kodiermethode des permanenten Vergleichs beinhaltet dabei das offene Kodieren, das axiale Kodieren und das selektive Kodieren.

  • Konfidenzintervall

    Das Konfidenzintervall („confidence intervall“, CI) kennzeichnet denjenigen Bereich von Merkmalsausprägungen, in dem sich 95% (99%) aller möglichen Populationsparameter befinden, die den empirisch ermittelten Stichprobenkennwert erzeugt haben können.

  • Konfidenzintervall und Signifikanztest

    Zwischen dem Konfidenzintervall und dem klassischen Signifikanztest besteht insofern eine Parallele, als ein Konfidenzintervall, das nicht die Null umschließt, gleichzeitig auch impliziert, dass der bestreffende Parameter statistisch signifikant ist (Ablehnung des H?-Modells).

  • Konkordanz bzw. Urteilerübereinstimmung

    Mit Konkordanz bzw. Urteilerübereinstimmung („inter-rater concordance“, „inter-rater agreement“, „inter-rater reliability“) ist die Übereinstimmung der Paarvergleichsurteile von zwei oder mehr Urteilenden gemeint.

  • Konsistenz

    Unter Konsistenz („intra-rater consistency“, „intra-rater reliability“) versteht man die Widerspruchsfreiheit der Paarvergleichsurteile, die eine Person über die Urteilsobjekte abgibt.

  • Konstruktvalidität

    Konstruktvalidität („construct validity“): Repräsentieren die verwendeten Messinstrumente (abhängige Variablen) sowie die hergestellten Untersuchungsbedingungen (unabhängige Variablen) inhaltlich in hohem Maße jeweils genau die interessierenden theoretischen Konstrukte? Kann von den empirisch-statistischen Ergebnissen auf die interessierenden theoretischen Konstrukte zurückgeschlossen werden? Die Konstruktvalidität ist vor allem von der Qualität der Theoriearbeit (Konzeptspezifikation) sowie der Operationalisierung abhängig.

  • Konzeptspezifikation

    Unter Konzeptspezifikation („conzeptualization“, „concept specification“) versteht man die Nominaldefinition bzw. Explikation eines theoretischen Konzeptes, Konstruktes bzw. latenten Merkmals. Bei komplexen Merkmalen nennt die Definition theoriebasiert in der Regel noch verschiedene Subdimensionen oder Aspekte des Konzeptes.

  • Korrespondenzproblem

    Das Korrespondenzproblem („problem of correspondence“) bezieht sich auf die Problematik des Nachweises, dass die in einer empirischen Untersuchung eingesetzten Indikatoren tatsächlich das erfassen, was mit den in der zu prüfenden Theorie verwendeten abstrakten Begriffen bzw. theoretischen Konstrukten gemeint ist. Diese Übereinstimmung kann nicht bewiesen, sondern nur in einem – ständiger Kritik unterzogenen – Konsens derWissenschaftsgemeinschaft festgelegt werden.

  • Kriterien für die Güte eines Punktschätzers

    Die Güte eines Punktschätzers (d. h. der Schätzmethode) wird v. a. über fünf Kriterien definiert: 1. Erwartungstreue (Unverzerrtheit, Unverfälschtheit, „mean-unbiasedness“): Ein erwartungstreuer Schätzer entspricht im Mittel dem Populationsparameter. 2. Konsistenz („consistency“, „asymptotic consistency“): Ein konsistenter Schätzer wird mit wachsendem Stichprobenumfang genauer, d. h. er ist erwartungstreu und seine Varianz sinkt mit wachsendem Stichprobenumfang. 3. Effizienz („efficiency“): Ein effizienter Schätzer ist genauer (d. h. weist eine geringere Varianz auf) als alternative erwartungstreue Schätzer. 4. Suffizienz („sufficiency“): Ein suffizienter/erschöpfender Schätzer berücksichtigt alle relevanten Informationen in der Stichprobe. 5. Robustheit („robustness“): Ein robuster Schätzer ist gegenüber Ausreißern bzw. Extremwerten in der Stichprobe unempfindlich.

  • Kritischer Rationalismus

    Gemäß der wissenschaftstheoretischen Position des Kritischen Rationalismus („critical rationalism“) kommt Erkenntnis dadurch zustande, dass der menschliche Verstand (Ratio) zunächst Theorien als Vermutungen über die Realität aufstellt. Aus diesen Theorien werden deduktiv empirisch prüfbare Hypothesen abgeleitet und anhand von Daten kritisch in derWissenschaftsgemeinschaft geprüft. Die kritische Prüfung von Hypothesen umfasst darüber hinaus immer auch eine kritische Betrachtung der Voraussetzungen der Datengewinnung (d. h. eine Methodenkritik) sowie eine kritische Auseinandersetzung mit konkurrierenden Hypothesen und Theorien.

  • Kritischer Rationalismus als Wissenschaftstheorie

    Wissenschaftstheoretische Basis des quantitativen Paradigmas in der empirischen Sozialforschung ist vor allem der Kritische Rationalismus („critical rationalism“). Er geht davon aus, dass Erkenntnisgewinn dadurch zustande kommt, dass man zunächst Theorien formuliert, daraus Hypothesen ableitet und diese in nachvollziehbarer Weise anhand von Daten prüft. Dabei wird die Erfahrungswirklichkeit anhand ihrer einzelnen Merkmale (Variablen) und deren Relationen untereinander anhand größerer Stichproben von Untersuchungseinheiten analytisch untersucht.

  • Kritischer Realismus

    Im Kritischen Rationalismus wird die Existenz einer außerhalb des menschlichen Bewusstseins existierenden, bestimmten Gesetzmäßigkeiten folgenden Wirklichkeit angenommen, über die der Mensch prinzipiell Erkenntnisse gewinnen kann, wenn auch dasWissen immer unsicher bleibt (kritischer Realismus; „critical realism“).

  • Laborstudie

    Die Laborstudie („laboratory study“) findet in einer kontrollierten Umgebung statt, um den Einfluss umwelt- bzw. untersuchungsbedingter Störvariablen möglichst auszuschließen. Erkauft wird die Kontrolle der Störvariablen im Labor meist durch eine gewisse Künstlichkeit des Untersuchungsortes, was die Übertragbarkeit der Befunde auf den Alltag erschwert.

  • Längsschnittstudie

    Bei einer Längsschnittstudie bzw. Panelstudie („longitudinal study“) wird eine Stichprobe (Panel) über längere Zeit hinweg wiederholt untersucht. Längsschnittstudien dienen der Untersuchung individueller Veränderungen über die Lebensspanne. Diese Alter(n)seffekte sind jedoch mit Kohorten- und Epocheneffekten konfundiert, was man durch komplexere längsschnittliche Designs teilweise auflösen kann.

  • Latentes Merkmal bzw. latente Variable

    Bei einem latenten Merkmal bzw. einer latenten Variablen („latent variable“) bzw. einem theoretischen Konzept/Konstrukt („theoretical concept“, „theoretical construct“) sind die Ausprägungen nicht direkt beobachtbar und die theoretische Bedeutung ist erklärungsbedürftig.

  • Leistungs- bzw. Fähigkeitstests

    Leistungs- bzw. Fähigkeitstests („achievement tests“) sind vollstrukturierte psychologische Testverfahren, mit denen Leistungsmerkmale (Ausprägungen von Fähigkeiten und Fertigkeiten) gemessen werden. Diese Tests zeichnen sich dadurch aus, dass Testaufgaben zu bearbeiten sind, für die es objektiv richtige und falsche Lösungen gibt und mittels derer die Testpersonen ihre maximalen Fähigkeiten unter Beweis stellen sollen. Als Leistungsindikatoren werden z. B. Lösungsmenge (Anzahl richtiger Lösungen) und Lösungsgüte (Qualität der Lösungen) herangezogen. Leistungstests werdenmeist unter Zeitdruck durchgeführt (Speed-Test) und/oder arbeiten mit sukzessiver Steigerung der Aufgabenschwierigkeit (Power-Test).

  • Leitfaden-Interview

    Das halbstrukturierte bzw. Leitfaden-Interview („semi-structured interview“) basiert auf einer geordneten Liste offener Fragen (Interview-Leitfaden). Leitfaden-Interviews können persönlich, telefonisch (telefonisches Leitfaden-Interview) und online (Online- Leitfaden-Interview), mit Laien und mit Experten (Experten-Interview) durchgeführt werden. Sie können sich auf bestimmte Problemlagen konzentrieren (problemzentriertes Interview) oder auf konkrete Medienangebote fokussieren (fokussiertes Interview). Typisch sind bei den verschiedenen Varianten des Leitfaden-Interviews jeweils Einzelinterviews; es existieren aber auch halbstrukturierte Paar- und Gruppeninterviews.

  • Likert-Skala

    Eine Likert-Skala („likert scale“) ist eine psychometrische Skala, die aus mehreren (z. B. 10–20) Aussagen besteht, die alle dasselbe Merkmal messen und auf Ratingskalen hinsichtlich des Grades der Zustimmung einzuschätzen sind. Typischerweise werden 5-stufige Ratingskalen verwendet. Die Likert-Items repräsentieren unterschiedliche Intensitäten des gemessenen Merkmals. Der Skalenwert der Likert- Skala berechnet sich als Summen- oder Durchschnittsscore der einzelnen Ratings. Neben eindimensionalen Likert-Skalen existieren auch mehrdimensionale Likert-Skalen; dabei bilden dann Teilmengen der Items jeweils die Subskalen, die Unteraspekte des interessierenden Merkmals erfassen. Für jede der (z. B. 2–4) Subskalen wird ein eigener Skalenwert berechnet. Der Likert-Skala wird üblicherweise Intervallskalenniveau, manchmal auch nur Ordinalskalenniveau zugeschrieben.

  • Manifestes Merkmal bzw. manifeste Variable

    Bei einem manifesten Merkmal bzw. einer manifesten Variable („manifest variable“, „observable variable“) sind die Ausprägungen direkt beobachtbar bzw. leicht feststellbar und die theoretische Bedeutung gilt als eindeutig und bekannt.

  • Maximum-Likelihood-Schätzung

    Eine Maximum-Likelihood- (ML-)Schätzung in Strukturgleichungsmodellen erfolgt so, dass bei Gültigkeit der – von den Parametern abhängigen – modelltheoretischen Kovarianzmatrix in der Population die Likelihood (Plausibilität, „Wahrscheinlichkeit“) maximal wird, in einer Stichprobe die gegebene empirische Kovarianzmatrix vorzufinden.

  • Mehrstufige Stichprobe

    Man zieht eine mehrstufige Zufallsstichprobe („multi-stage random sample“), indem man zunächst eine Klumpenstichprobe mit großen Klumpen zieht (1. Ziehungsstufe). Diese Klumpen werden nicht vollständig untersucht, sondern nur in zufälligen Ausschnitten. Werden aus den Klumpen mittels einfacher Zufallsstichprobe die Untersuchungsobjekte gezogen (2. Ziehungsstufe), so liegt eine zweistufige Klumpen- bzw. Zufallsstichprobe vor („two stage cluster/ random sample“). Zieht man auf der zweiten Stufe wieder eine Klumpenstichprobe, ergibt sich durch Ziehung einer Zufallsstichprobe aus diesen Klumpen eine 3. Ziehungsstufe und somit eine dreistufige Klumpen- bzw. Zufallsstichprobe („three stage cluster/random sample“).

  • Merkmalsspezifisch-repräsentative Stichprobe

    Eine merkmalsspezifisch- repräsentative Stichprobe liegt vor, wenn die Zusammensetzung der Stichprobe hinsichtlich einiger relevanter Merkmale der Populationszusammensetzung entspricht. Dies wird typischerweise durch eine nicht-probabilistische Quotenstichprobe erreicht.

  • Mess- bzw. Skalenniveaus

    Messungen in der quantitativen Sozialforschung führen in Abhängigkeit von der Beschaffenheit des empirischen Relativs zu unterschiedlich informationsreichen Messwerten. Man unterscheidet vier Mess- bzw. Skalenniveaus („levels of measurement“, „scales of measurement“) nach aufsteigendem Informationsgehalt: Nominalskala („nominal scale“), Ordinal-/Rangskala („ordinal scale“), Intervallskala („interval scale“) und Verhältnis-/Ratioskala („ratio scale“). Im Ergebnis spricht man von nominal-, ordinal-, intervall- oder verhältnisskalierten Messwerten bzw. Daten. Intervall- und Verhältnisskala werden häufig unter den Begriffen „Kardinalskala“ bzw. „metrische Skala“ („metric scale“) zusammengefasst, da sie mit denselben statistischen Verfahren ausgewertet werden können, während für ordinalskalierte und nominalskalierte Daten jeweils spezifische statistische Auswertungsverfahren indiziert sind.

  • Messung der Hautleitfähigkeit

    Die Messung der Hautleitfähigkeit („skin conductance measurement“) bzw. ihres Kehrwertes, des Hautwiderstandes, dient der Erfassung der elektrodermalen Aktivität („electrodermal activity“, EDA) des Organismus. Die Ableitung erfolgt an der Handinnenfläche mittels zweier Elektroden. Als Ergebnis der Messung werden die Veränderungen der Hautleitfähigkeit (in Mikrosiemens S) über die Zeit hinweg in einer Hautleitfähigkeitskurve grafisch dargestellt.

  • Metaanalyse

    Bei der Metastudie bzw. Metaanalyse („meta analysis“) werden die Ergebnisse direkt vergleichbarer Studien zum selben Thema zu einem Gesamtergebnis statistisch zusammengefasst. Da die Metaanalyse mit empirischen Ergebnissen weiterrechnet und somit eine statistische Datenanalyse enthält, kann sie als Sonderform einer empirischen Studie eingeordnet werden. Allerdings arbeitet sie nicht mit Orgininaldatensätzen, sondern stützt sich ausschließlich auf Ergebnisberichte von Studien und wird deswegen auch als Theorie- oder Literaturarbeit eingestuft.

  • Methode des Ambulanten Assessments

    Die Methode des Ambulanten Assessments (auch: Ambulantes Monitoring; „ambulatory assessment“, „ambulatory monitoring“, „ecological momentary assessment“, EMA) stammt aus dem klinischen Anwendungsfeld. Beim Ambulanten Assessment werden physiologische Messungen (z. B. Blutdruck, Herzfrequenz, Atmung), Verhaltensmessungen (z. B. Schrittzähler) sowie Messungen von Umweltvariablen (z.B. Lärm, Temperatur, Helligkeit) mithilfe entsprechender mobiler Messgeräte über längere Zeitperioden fortlaufend im Alltag der Untersuchungspersonen (anstatt z.B. in der Klinik oder im Forschungslabor) durchgeführt. Die objektiven Messungen können durch eine fortlaufende Erhebung von Selbstauskunftsdaten im Sinne der vollstrukturierten Tagebuchmethode sinnvoll ergänzt werden.

  • Methode des lauten Denkens

    Bei der Methode des lauten Denkens („think-aloud method“, „think-aloud protocol“ [TAP], „think-aloud test“) werden Untersuchungsteilnehmende aufgefordert, all ihre Gedanken in Worte zu fassen, die während einer bestimmten Aktivität (z. B. einen Text übersetzen, eine Entscheidung treffen, ein Computerprogramm nutzen) auftreten. Die interessierende Aktivität zusammen mit dem lauten Denken wird in der Regel per Video aufgezeichnet und anschließend verschriftet.

  • Methodenstudie

    Die Methodenstudie („methodological study“) dient dem Vergleich und der Weiterentwicklung von Forschungsmethoden.

  • Methodologischer Falsifikationismus

    Die kritische Prüfung von inhaltlichen Kerntheorien muss im Verständnis des Kritischen Rationalismus wegen des Basissatz- und Korrespondenzproblems immer auch unter Berücksichtigung der für die Studie relevanten Hilfs- oder Instrumententheorien erfolgen (methodologischer Falsifikationismus; „methodological falsificationism“). Dabei sind nicht zuletzt Replikationsstudien (Wiederholungsstudien, „replication studies“) besonders wichtig, die nämlich nicht nur auf derselben inhaltlichen Kerntheorie, sondern auch auf denselben Hilfs- und Instrumententheorien basieren wie die jeweiligen Vorläuferstudien.

  • Minimum-Effekt-Nullhypothese

    Eine Minimum-Effekt-Nullhypothese („minimum effect null hypotheses“) postuliert im Sinne des Good- Enough-Prinzips als Bereichshypothese einen Bereich vernachlässigbar kleiner Populationseffekte.

  • Mixed-Effects-Modell

    Das Mixed-Effects-Modell kombiniert das Fixed- Effect- und das Random-Effects-Modell.

  • Mixed-Methods-Ansatz

    Der Mixed-Methods-Ansatz („mixed methods approach“) kombiniert qualitative und quantitative Vorgehensweisen zu neuen Mixed-Methods-Designs.

  • Mixed-Methods-Sozialforschung

    Der Mixed-Methods-Ansatz in der empirischen Sozialforschung („mixed methods approach“, „mixedmethods research“) kombiniert und integriert quantitative und qualitative Forschungsstrategien innerhalb einer Studie bzw. eines Forschungsprojekts, um dadurch den Erkenntnisgewinn zu erhöhen.

  • Mobile Befragung

    Bei einer mobilen Befragung („mobile survey“) wird ein elektronischer Fragebogen über drahtlose Netzwerke bzw. Mobilfunknetze und mobile (portable) Endgeräte verbreitet. Die gewählten Antworten werden auf einem Befragungsserver gespeichert und stehen als digitale Datensätze zur Verfügung. Mobile Fragebögen müssen für die angezielten Endgeräte und Umfragesituationen (z. B. das Ausfüllen unterwegs in Nischenzeiten oder im Freien) gestaltet werden und unterscheiden sich somit von herkömmlichen Online-Fragebögen.

  • Moderatorvariablen

    Neben der Schätzung des Gesamteffekts wird durch die Metaanalyse derWirkprozess analysiert, indem man diejenigen Moderatorvariablen identifiziert, die dafür verantwortlich sind, dass der Effekt unter bestimmten Bedingungen stärker oder schwächer ausfällt (Moderatorvariablen- bzw. Subgruppen-Analyse).

  • Monokausale Erklärung

    Ein Sachverhalt wird durch einen einzigen Ursachenfaktor erklärt. Theorien mit einem einzigen Erklärungsfaktor werden oft als zu stark vereinfachend betrachtet. Sie können durch weitere Theorien ergänzt werden, die andere Ursachen des fraglichen Sachverhalts adressieren.

  • Multikausale Erklärung

    Ein Sachverhalt wird durch mehrere Ursachenfaktoren erklärt. Es wird davon ausgegangen, dass viele soziale Sachverhalte jeweils durch mehrere Ursachen und deren Zusammenwirken hervorgerufen werden, weshalb multikausale Erklärungen den monokausalen meist überlegen sind. Der Kritische Rationalismus strebt danach, die zentralen Ursachenfaktoren analytisch herauszuarbeiten. Eine ganzheitliche (holistische) Herangehensweise, dergemäß alle erdenklichen Einflussfaktoren gleichzeitig betrachtet werden, wird abgelehnt, da hier die Gefahr gesehen wird, dass dogmatische Weltbilder Einzug halten auf Kosten differenzierter empirischer Analyse und theoriekritischer Diskussion.

  • Multiple Regressionsanalyse

    Die multiple Regressionsanalyse bestimmt die Regressionskoeffizienten (Beta-Gewichte) der Prädiktoren, die Auskunft über die Enge und Richtung des Einflusses der einzelnen Prädiktoren im Kontext des Gesamtzusammenhangs aller betrachteten Prädiktorvariablen geben. Auch die Beta-Gewichte werden auf Signifikanz geprüft.

  • Multiple Zusammenhangshypothese

    Eine multiple Zusammenhangshypothese behauptet, dass zwischen mehreren Prädiktorvariablen und einer Kriteriumsvariablen ein Zusammenhang besteht. Sie wird mit der multiplen Korrelations- und Regressionsanalyse überprüft

  • Multipler Korrelationskoeffizient R

    Der multiple Korrelationskoeffizient R („multiple correlation coefficient“) quantifiziert die Enge (nicht jedoch die Richtung) des Gesamtzusammenhangs zwischen dem Prädiktorvariablensatz und dem Kriterium. Er wird auf Signifikanz geprüft.

  • Multitrait-Multimethod-Ansatz

    Der Multitrait-Multimethod-Ansatz (MTMM-Ansatz; „multitrait multimethod approach“) überprüft systematisch, mit welcher Übereinstimmung verschiedene Methoden dasselbe Konstrukt erfassen (konvergente Validität) und wie gut verschiedene Konstrukte durch eine Methode differenziert werden (diskriminante Validität). Der MTMM-Ansatz spielt für die Konstruktvalidierung von Tests eine zentrale Rolle. Zu unterscheiden sind die korrelationsbasierte MTMM-Analyse (mittels bivariater Korrelationskoeffizienten) und die konfirmatorische MTMM-Analyse (mittels Strukturgleichungsmodellen).

  • Narratives Interview

    Das narrative Interview („narrative interview“) wird nach einer kurzen Erklärung des Vorgehens durch einen Erzählanstoß der Interviewenden eingeleitet, der sich auf autobiografische Erfahrungen bezieht und eine Stegreiferzählung der Befragungsperson auslösen soll. Im Zuge des freien Erzählens ergeben sich für die Befragten von allein Erzählzwänge, die zum Weitererzählen animieren. An die Haupterzählung schließt sich eine vom Interviewer geleitete Nachfrageund Bilanzierungsphase an.

  • Nicht-experimentelle Studie

  • 0 thoughts on “Nomologische Hypothesis Statement”

      -->

    Leave a Comment

    Your email address will not be published. Required fields are marked *