Empirische Forschung ist eine Methode, um Daten über ein Phänomen zu sammeln. Empirische Methode - was bedeutet das, Arten und Methoden der empirischen Erkenntnis

Zu den Methoden der empirischen Forschung in Wissenschaft und Technik gehören unter anderem Beobachtung, Vergleich, Messung und Experiment.

Unter Beobachtung versteht man eine systematische und zielgerichtete Wahrnehmung eines Objekts, das uns aus irgendeinem Grund interessiert: Dinge, Phänomene, Eigenschaften, Zustände, Aspekte des Ganzen - sowohl materielle als auch ideelle Natur.

Dies ist die einfachste Methode, die in der Regel als Teil anderer empirischer Methoden fungiert, obwohl sie in einer Reihe von Wissenschaften unabhängig oder als Hauptmethode fungiert (wie in der Wetterbeobachtung, in der beobachtenden Astronomie usw.). Die Erfindung des Teleskops ermöglichte es dem Menschen, die Beobachtung auf den zuvor unzugänglichen Bereich der Megawelt auszudehnen, die Schaffung des Mikroskops markierte einen Eingriff in die Mikrowelt. Das Röntgengerät, das Radar, der Ultraschallgenerator und viele andere technische Beobachtungsmittel haben zu einer beispiellosen Steigerung des wissenschaftlichen und praktischen Wertes dieser Forschungsmethode geführt. Es gibt auch Methoden und Methoden der Selbstbeobachtung und Selbstkontrolle (in Psychologie, Medizin, Körperkultur und Sport usw.).

Der eigentliche Begriff der Beobachtung in der Erkenntnistheorie erscheint allgemein in Form des Begriffs "Kontemplation", er wird mit den Kategorien der Aktivität und Aktivität des Subjekts verbunden.

Um fruchtbar und produktiv zu sein, muss die Beobachtung die folgenden Anforderungen erfüllen:

bewußt, d. h. zur Lösung ganz bestimmter Probleme im Rahmen des allgemeinen Ziels (der Ziele) wissenschaftlichen Handelns und Handelns durchgeführt werden; -

systematisch, das heißt, bestehen aus Beobachtungen, die einem bestimmten Plan, Schema folgen, das sich aus der Art des Objekts sowie den Zielen und Zwecken der Studie ergibt; -

zielgerichtet, das heißt, die Aufmerksamkeit des Beobachters nur auf die ihn interessierenden Objekte zu richten und sich nicht mit denen zu beschäftigen, die aus den Beobachtungsaufgaben herausfallen. Die Beobachtung, die auf die Wahrnehmung einzelner Details, Seiten, Aspekte, Teile des Objekts abzielt, wird als Fixierung bezeichnet, und die Abdeckung des Ganzen unter wiederholter Beobachtung (Rückkehr) als Fluktuation. Die Kombination dieser Beobachtungsarten ergibt am Ende ein vollständiges Bild des Objekts; -

aktiv zu sein, das heißt, wenn der Beobachter gezielt die für seine Aufgaben notwendigen Gegenstände aus einer bestimmten Menge von Gegenständen heraussucht, einzelne ihn interessierende Eigenschaften, Aspekte dieser Gegenstände betrachtet und dabei auf den eigenen Wissensvorrat, seine Erfahrung, zurückgreift und Fähigkeiten; -

systematisch, das heißt, wenn der Beobachter seine Beobachtung kontinuierlich und nicht zufällig und sporadisch (wie bei einfacher Kontemplation) nach einem bestimmten, im Voraus durchdachten Schema unter verschiedenen oder genau festgelegten Bedingungen durchführt.

Beobachtung als Methode wissenschaftliches Wissen und die Praxis liefert uns Tatsachen in Form einer Reihe empirischer Aussagen über Gegenstände. Diese Fakten bilden die primäre Information über die Wissens- und Studiengegenstände. Beachten Sie, dass es in Wirklichkeit selbst keine Fakten gibt: Sie existiert einfach. Fakten sind in den Köpfen der Menschen. Die Beschreibung wissenschaftlicher Sachverhalte erfolgt auf der Grundlage einer bestimmten Wissenschaftssprache, Vorstellungen, Weltbildern, Theorien, Hypothesen und Modellen. Sie bestimmen die primäre Schematisierung der Repräsentation eines gegebenen Objekts. Tatsächlich entsteht gerade unter solchen Bedingungen das "Objekt der Wissenschaft" (das nicht mit dem Objekt der Realität selbst verwechselt werden darf, da das zweite eine theoretische Beschreibung des ersten ist!).

Viele Wissenschaftler haben ihre Beobachtungsfähigkeit, also Beobachtung, speziell entwickelt. Charles Darwin sagte, er verdanke seinen Erfolg der Tatsache, dass er diese Eigenschaft in sich intensiv entwickelt habe.

Der Vergleich ist eine der gebräuchlichsten und universellsten Erkenntnismethoden. Berühmter Aphorismus: „Alles bekannt im Vergleich“ – der beste Beweis dafür. Vergleich ist die Feststellung von Ähnlichkeiten (Identitäten) und Unterschieden von Objekten und Phänomenen verschiedener Art, ihrer Aspekte usw. im Allgemeinen - Untersuchungsobjekten. Als Ergebnis des Vergleichs wird etwas Gemeinsames festgestellt, das zwei oder mehr Objekten innewohnt – zu einem bestimmten Zeitpunkt oder in ihrer Geschichte. In den Wissenschaften historischer Natur wurde der Vergleich auf die Ebene der Hauptforschungsmethode entwickelt, die als vergleichende historische bezeichnet wurde. Das Aufdecken des Gemeinsamen, das Wiederholen in Phänomenen ist, wie Sie wissen, ein Schritt auf dem Weg zur Erkenntnis des Regelmäßigen.

Damit ein Vergleich fruchtbar ist, muss er zwei Grundvoraussetzungen erfüllen: Es sollten nur solche Parteien und Aspekte, Objekte als Ganzes verglichen werden, zwischen denen eine objektive Gemeinsamkeit besteht; Der Vergleich sollte auf den wichtigsten Merkmalen basieren, die für eine bestimmte Forschungs- oder andere Aufgabe wesentlich sind. Ein Vergleich aus unwesentlichen Gründen kann nur zu Missverständnissen und Irrtümern führen. In diesem Zusammenhang müssen wir mit den Schlussfolgerungen "durch Analogie" vorsichtig sein. Die Franzosen sagen sogar, dass "Vergleiche kein Beweis sind!".

Objekte, die für einen Forscher, Ingenieur oder Designer von Interesse sind, können entweder direkt oder indirekt über ein drittes Objekt verglichen werden. Im ersten Fall werden qualitative Bewertungen des Typs erhalten: mehr - weniger, heller - dunkler, höher - niedriger, näher - weiter usw. Zwar können Sie auch hier die einfachsten quantitativen Merkmale erhalten: "doppelt so hoch", " doppelt so schwer" usw. Wenn es noch einen dritten Gegenstand gibt, der die Rolle eines Standards, eines Maßes, einer Waage hat, dann werden besonders wertvolle und genauere quantitative Eigenschaften erhalten. Einen solchen Vergleich durch ein vermittelndes Objekt nenne ich Messung. Der Vergleich bereitet auch die Basis für eine Reihe von theoretischen Methoden. Sie selbst stützt sich oft auf Analogieschlüsse, auf die wir später noch eingehen werden.

Die Messung hat sich historisch aus Beobachtung und Vergleich entwickelt. Im Gegensatz zu einem einfachen Vergleich ist es jedoch effizienter und genauer. Moderne Naturwissenschaft, die von Leonardo da Vinci, Galileo und Newton initiiert wurde. Ihre Blütezeit verdankt sie der Verwendung von Maßen. Es war Galileo, der das Prinzip einer quantitativen Herangehensweise an Phänomene proklamierte, wonach die Beschreibung physikalischer Phänomene auf Größen beruhen sollte, die ein quantitatives Maß haben - Zahl. Er sagte, das Buch der Natur sei in der Sprache der Mathematik geschrieben. Engineering, Design und Konstruktion gehen in ihren Methoden in die gleiche Richtung. Wir betrachten hier die Messung im Gegensatz zu anderen Autoren, die Messung mit Experiment kombinieren, als eigenständige Methode.

Die Messung ist ein Verfahren zur Bestimmung des numerischen Werts einer Eigenschaft eines Objekts durch Vergleich mit einer Maßeinheit, die von einem bestimmten Forscher oder von allen Wissenschaftlern und Praktikern als Standard akzeptiert wird. Wie Sie wissen, gibt es internationale und nationale Einheiten zur Messung der Hauptmerkmale verschiedener Klassen von Objekten, wie Stunde, Meter, Gramm, Volt, Bit usw.; Tag, Pud, Pfund, Werst, Meile usw. Die Messung setzt das Vorhandensein der folgenden Grundelemente voraus: ein Messobjekt, eine Maßeinheit, dh eine Skala, ein Maß, einen Standard; Messgerät; Messmethode; Beobachter.

Die Messungen sind entweder direkt oder indirekt. Bei der direkten Messung wird das Ergebnis direkt aus dem Messvorgang selbst gewonnen (z. B. über Längen-, Zeit-, Gewichtsmaße etc.). Bei der indirekten Messung wird der erforderliche Wert rechnerisch auf der Grundlage anderer zuvor durch direkte Messung gewonnener Werte ermittelt. So erhalten Sie beispielsweise das spezifische Gewicht, die Fläche und das Volumen von Körpern korrekte Form, Geschwindigkeit und Beschleunigung des Körpers, Kraft usw.

Die Messung erlaubt es, empirische Gesetze und fundamentale Weltkonstanten zu finden und zu formulieren. Insofern kann es als Quelle für die Bildung sogar ganzer wissenschaftlicher Theorien dienen. So erlaubten Tycho de Brahes Langzeitmessungen der Planetenbewegung später Kepler, Verallgemeinerungen in Form der bekannten drei empirischen Gesetze der Planetenbewegung zu schaffen. Die Messung von Atomgewichten in der Chemie war eine der Grundlagen für Mendelejews Formulierung seines berühmten Periodengesetzes in der Chemie und so weiter. Die Messung liefert nicht nur genaue quantitative Informationen über die Realität, sondern ermöglicht auch die Einführung neuer qualitativer Überlegungen in die Theorie. So geschah es schließlich mit der Messung der Lichtgeschwindigkeit durch Michelson im Zuge der Entwicklung von Einsteins Relativitätstheorie. Beispiele können fortgesetzt werden.

Der wichtigste Indikator für den Wert einer Messung ist ihre Genauigkeit. Dank ihr können Fakten entdeckt werden, die nicht mit gängigen Theorien übereinstimmen. Früher konnten beispielsweise Abweichungen in der Größe des Merkurperihels von der berechneten (d. h. im Einklang mit den Gesetzen von Kepler und Newton) um 13 Sekunden pro Jahrhundert nur durch die Schaffung eines neuen, relativistischen Konzepts des Perihels erklärt werden Welt hinein Allgemeine Theorie Relativität.

Die Genauigkeit der Messungen hängt von den verfügbaren Instrumenten, ihren Fähigkeiten und ihrer Qualität, von den verwendeten Methoden und der Ausbildung des Forschers selbst ab. Messungen sind oft kostspielig, dauern oft lange Vorbereitungszeit, viele Personen sind beteiligt, und das Ergebnis kann entweder Null oder nicht schlüssig sein. Oft sind Forscher nicht bereit für die erzielten Ergebnisse, weil sie ein bestimmtes Konzept, eine Theorie teilen, aber dieses Ergebnis nicht beinhalten können. So hat der Wissenschaftler Landolt zu Beginn des 20. Jahrhunderts das Gesetz der Gewichtserhaltung von Stoffen in der Chemie sehr genau geprüft und sich von seiner Gültigkeit überzeugt. Wenn seine Technik verbessert (und die Genauigkeit um 2 - 3 Größenordnungen erhöht) würde, wäre es möglich, die bekannte Einstein-Beziehung zwischen Masse und Energie abzuleiten: E = mc . Aber würde es für die damalige Wissenschaftswelt überzeugen? Kaum! Dazu war die Wissenschaft noch nicht bereit. Als der englische Physiker F. Aston im 20. Jahrhundert durch die Bestimmung der Masse radioaktiver Isotope durch Ablenkung eines Ionenstrahls die theoretische Schlussfolgerung Einsteins bestätigte, wurde dies in der Wissenschaft als natürliches Ergebnis wahrgenommen.

Beachten Sie, dass es bestimmte Anforderungen an die Genauigkeit gibt. Sie muss der Beschaffenheit der Gegenstände und den Anforderungen der Erkenntnis-, Gestaltungs-, Ingenieur- oder Ingenieuraufgabe entsprechen. In Technik und Konstruktion beschäftigt man sich also ständig mit der Messung von Masse (also Gewicht), Länge (Größe) usw. Aber in den meisten Fällen ist hier keine Präzision erforderlich, außerdem würde es im Allgemeinen lächerlich aussehen, wenn beispielsweise Gewicht der tragenden Säule für das Gebäude wurde auf Tausendstel oder sogar noch kleinere Bruchteile eines Gramms geprüft! Es gibt auch das Problem, massives Material zu messen, das mit zufälligen Abweichungen verbunden ist, wie es bei großen Populationen der Fall ist. Ähnliche Phänomene sind typisch für Objekte der Mikrowelt, für biologische, soziale, wirtschaftliche und andere ähnliche Objekte. Hier sind Suchen nach dem statistischen Mittelwert und speziell auf die Verarbeitung des Zufalls und seiner Verteilungen ausgerichtete Methoden in Form von Wahrscheinlichkeitsverfahren anwendbar usw.

Um zufällige und systematische Messfehler zu eliminieren, Fehler und Fehler zu identifizieren, die mit der Art der Instrumente und des Beobachters (Mensch) zusammenhängen, wurde eine spezielle mathematische Fehlertheorie entwickelt.

Im Zusammenhang mit der Technikentwicklung haben im 20. Jahrhundert im Zusammenhang mit der Technikentwicklung Messverfahren unter Bedingungen schneller Prozesse, in aggressiven Umgebungen, wo die Anwesenheit eines Beobachters ausgeschlossen ist, etc. besondere Bedeutung erlangt. Abhilfe schafften hier die Methoden der Auto- und Elektrometrie sowie die Computerverarbeitung von Informationen und die Steuerung von Messvorgängen. Bei ihrer Entwicklung spielten die Entwicklungen von Wissenschaftlern des Nowosibirsker Instituts für Automatisierung und Elektrometrie der sibirischen Abteilung der Russischen Akademie der Wissenschaften sowie der NNSTU (NETI) eine herausragende Rolle. Das waren Weltklasse-Ergebnisse.

Die Messung wird zusammen mit der Beobachtung und dem Vergleich auf der empirischen Ebene der Erkenntnis und der menschlichen Aktivität im Allgemeinen weit verbreitet und ist Teil der am weitesten entwickelten, komplexesten und bedeutendsten Methode - der experimentellen.

Unter einem Experiment versteht man eine solche Methode des Studiums und der Transformation von Objekten, wenn der Forscher sie aktiv beeinflusst, indem er künstliche Bedingungen schafft, die erforderlich sind, um Eigenschaften, Merkmale, Aspekte, die ihn interessieren, zu identifizieren, den Verlauf natürlicher Prozesse bewusst zu ändern, während er reguliert und misst und beobachten. Die Hauptmittel zur Schaffung solcher Bedingungen sind verschiedene Geräte und künstliche Geräte, auf die wir weiter unten eingehen werden. Das Experiment ist die komplexeste, umfassendste und effektivste Methode empirisches Wissen und Transformationen von Objekten verschiedener Art. Aber ihr Wesen liegt nicht in der Komplexität, sondern in der Zielstrebigkeit, Vorsätzlichkeit und Intervention durch Regulierung und Kontrolle während der untersuchten und transformierten Prozesse und Zustände von Objekten.

Galileo gilt als Begründer der experimentellen Wissenschaft und experimentellen Methode. Erfahrung als Hauptweg der Naturwissenschaft wurde erstmals Ende des 16. und Anfang des 17. Jahrhunderts vom englischen Philosophen Francis Bacon identifiziert. Erfahrung ist der Hauptpfad für Ingenieurwesen und Technologie.

Die Unterscheidungsmerkmale des Experiments sind die Möglichkeit, ein Objekt in einer relativ reinen Form zu untersuchen und zu transformieren, wenn alle Nebenfaktoren, die das Wesen der Sache verdecken, fast vollständig eliminiert werden. Dadurch ist es möglich, Objekte der Realität unter extremen Bedingungen zu untersuchen, d. h. bei ultratiefen und ultrahohen Temperaturen, Drücken und Energien, Prozessraten, elektrischen und magnetischen Feldern, Wechselwirkungsenergien usw.

Unter diesen Bedingungen kann man unerwartete und überraschende Eigenschaften gewöhnlicher Objekte erhalten und dadurch tiefer in ihr Wesen und ihre Transformationsmechanismen eindringen (extremes Experiment und Analyse).

Beispiele für Phänomene, die unter extremen Bedingungen entdeckt wurden, sind Suprafluidität und Supraleitung bei niedrige Temperaturen. Der wichtigste Vorteil des Experiments ist seine Wiederholbarkeit, wenn Beobachtungen, Messungen, Tests der Eigenschaften von Objekten wiederholt unter wechselnden Bedingungen durchgeführt werden, um die Genauigkeit, Zuverlässigkeit und praktische Bedeutung früher erhaltener Ergebnisse zu erhöhen, um sicherzustellen, dass a neues Phänomen existiert im Allgemeinen.

In folgenden Situationen ist ein Experiment angesagt:

wenn sie versuchen, bisher unbekannte Eigenschaften und Merkmale eines Objekts zu entdecken - das ist ein Forschungsexperiment; -

wenn sie die Richtigkeit bestimmter theoretischer Sätze, Schlussfolgerungen und Hypothesen überprüfen - ein Testexperiment für die Theorie; -

bei der Überprüfung der Richtigkeit zuvor durchgeführter Experimente - ein Überprüfungsexperiment (für Experimente); -

pädagogisches Demonstrationsexperiment.

Jede dieser Arten von Experimenten kann sowohl direkt mit dem zu untersuchenden Objekt als auch mit seinem Stellvertreter - Modellen verschiedener Art - durchgeführt werden. Experimente des ersten Typs werden als Full-Scale-Experimente bezeichnet, die zweiten als Modell (Simulation). Beispiele für Experimente des zweiten Typs sind Untersuchungen der hypothetischen Primäratmosphäre der Erde an Modellen aus einem Gemisch aus Gasen und Wasserdampf. Die Experimente von Miller und Abelson bestätigten die Möglichkeit der Bildung organischer Formationen und Verbindungen während elektrischer Entladungen im Modell der Primäratmosphäre, und dies wurde wiederum zu einem Test für die Theorie von Oparin und Haldane über den Ursprung des Lebens. Ein weiteres Beispiel sind Simulationsexperimente am Computer, die in allen Wissenschaften immer mehr Einzug halten. Physiker sprechen heute in diesem Zusammenhang von der Entstehung der „Computational Physics“ (die Arbeitsweise eines Computers basiert auf mathematischen Programmen und Rechenoperationen).

Der Vorteil des Experiments ist die Möglichkeit, Objekte unter einem breiteren Spektrum von Bedingungen zu untersuchen, als es das Original zulässt, was sich besonders in der Medizin bemerkbar macht, wo es unmöglich ist, Experimente durchzuführen, die die menschliche Gesundheit verletzen. Dann greifen sie auf lebende und nicht lebende Modelle zurück, die die Merkmale eines Menschen und seiner Organe wiederholen oder imitieren. Experimente können sowohl an realen und Informationsobjekten als auch mit ihren idealen Kopien durchgeführt werden; im letzteren Fall haben wir ein Gedankenexperiment, auch ein Computerexperiment, als ideale Form eines realen Experiments (Computersimulation eines Experiments).

Gegenwärtig rücken soziologische Experimente zunehmend in den Fokus. Aber es gibt hier Besonderheiten, die die Möglichkeiten solcher Experimente im Einklang mit den Gesetzen und Prinzipien der Humanität einschränken, die sich in den Konzepten und Vereinbarungen des UN- und Völkerrechts widerspiegeln. Daher wird niemand außer Kriminellen experimentelle Kriege, Epidemien usw. planen, um ihre Folgen zu studieren. In diesem Zusammenhang wurden in unserem Land und in den Vereinigten Staaten die Szenarien eines Atomraketenkriegs und seine Folgen in Form eines "nuklearen Winters" auf Computern gespielt. Die Schlussfolgerung aus diesem Experiment ist, dass ein Atomkrieg unweigerlich den Tod der gesamten Menschheit und allen Lebens auf der Erde bringen wird. Die Bedeutung ökonomischer Experimente ist groß, aber auch hier kann die Verantwortungslosigkeit und das politische Engagement von Politikern zu verheerenden Ergebnissen führen.

Beobachtungen, Messungen und Experimente basieren hauptsächlich auf verschiedenen Instrumenten. Was ist ein Gerät im Hinblick auf seine Rolle in der Forschung? Im weitesten Sinne werden Geräte als künstliche, technische Mittel und verschiedene Arten von Geräten verstanden, die es uns ermöglichen, jedes Phänomen, jede Eigenschaft, jeden Zustand, jede Eigenschaft, die uns interessiert, von einer quantitativen und / oder qualitativen Seite aus zu untersuchen und genau definiert zu erstellen Bedingungen für ihre Feststellung, Umsetzung und Regulierung; Geräte, mit denen gleichzeitig beobachtet und gemessen werden kann.

Ebenso wichtig ist es, ein Referenzsystem zu wählen, um es speziell im Gerät anzulegen. Unter Bezugssystemen versteht man Objekte, die gedanklich als anfänglich, grundlegend und körperlich ruhend, bewegungslos wahrgenommen werden. Dies ist am deutlichsten zu sehen, wenn mit verschiedenen Skalen zum Lesen gemessen wird. Bei astronomischen Beobachtungen sind dies die Erde, die Sonne, andere Körper, Fixsterne (bedingt) usw. „Labor“ nennen die Physiker jenen Bezugsrahmen, ein Objekt, das mit dem Beobachtungs- und Messort im raumzeitlichen Sinne zusammenfällt . Im Gerät selbst ist das Bezugssystem ein wichtiger Bestandteil der Messeinrichtung, herkömmlich auf der Bezugsskala kalibriert, wo der Beobachter beispielsweise die Abweichung eines Pfeils oder eines Lichtsignals vom Skalenanfang festlegt. Bei digitalen Maßsystemen haben wir aufgrund der Kenntnis der Merkmale der hier verwendeten abzählbaren Maßeinheiten noch einen dem Betrachter bekannten Bezugspunkt. Einfache und verständliche Skalen z. B. für Lineale, Uhren mit Zifferblatt, für die meisten elektrischen und thermischen Messgeräte.

In der klassischen Periode der Wissenschaft gehörten zu den Anforderungen an Instrumente erstens die Empfindlichkeit gegenüber dem Einfluss einer äußeren messbaren Größe zur Messung und Regelung experimenteller Bedingungen; zweitens die sogenannte "Auflösung" - dh die Grenzen der Genauigkeit und der Einhaltung bestimmter Bedingungen für den zu untersuchenden Prozess in einem Versuchsgerät.

Gleichzeitig glaubte man stillschweigend, dass sie alle im Laufe des Fortschritts der Wissenschaft verbessert und gesteigert werden könnten. Im 20. Jahrhundert wurde dank der Entwicklung der Physik des Mikrokosmos festgestellt, dass es eine untere Grenze der Teilbarkeit von Materie und Feld (Quanten usw.), einen niedrigeren Wert der elektrischen Ladung usw. gibt All dies führte zu einer Überarbeitung der bisherigen Anforderungen und lenkte besondere Aufmerksamkeit auf die aus dem Schulphysikunterricht allen bekannten Systeme physikalischer und anderer Einheiten.

Als wichtige Bedingung für die Objektivität der Beschreibung von Objekten wurde auch die grundsätzliche Möglichkeit der Abstrahierung angesehen, von Bezugsrahmen zu abstrahieren, indem man entweder den sogenannten "natürlichen Bezugsrahmen" wählt oder solche Eigenschaften an Objekten entdeckt, die davon nicht abhängen die Wahl der Bezugsrahmen. In der Wissenschaft werden sie "Invarianten" genannt. In der Natur selbst gibt es nicht so viele solcher Invarianten: Dies ist das Gewicht des Wasserstoffatoms (und es wurde zu einem Maß, einer Einheit zur Messung des Gewichts anderer chemischer Atome), dies ist ein elektrische Ladung, die sogenannte "Wirkung" in Mechanik und Physik (ihre Dimension ist Energie x Zeit), das Plancksche Wirkungsquantum (in der Quantenmechanik), die Gravitationskonstante, die Lichtgeschwindigkeit usw. Wende des XIX und XX Jahrhunderten hat die Wissenschaft scheinbar paradoxe Dinge herausgefunden: Masse, Länge, Zeit sind relativ, sie hängen von der Bewegungsgeschwindigkeit von Materieteilchen und Feldern und natürlich von der Position des Beobachters im Rahmen ab der Referenz. In der speziellen Relativitätstheorie wurde daraufhin eine spezielle Invariante gefunden - das "vierdimensionale Intervall".

Die Bedeutung und Rolle des Studiums von Referenzsystemen und Invarianten hat im Laufe des 20. Jahrhunderts zugenommen, insbesondere beim Studium von extreme Bedingungen, die Art und Geschwindigkeit der Prozesse, wie z. B. ultrahohe Energien, niedrige und ultratiefe Temperaturen, schnelle Prozesse usw. Auch das Problem der Messgenauigkeit bleibt wichtig. Alle Instrumente, die in Wissenschaft und Technik verwendet werden, können in beobachtende, messende und experimentelle Instrumente unterteilt werden. Es gibt mehrere Arten und Unterarten entsprechend ihrem Zweck und ihrer Funktion in der Studie:

1. Messen von Scheiteln verschiedener Art mit zwei Unterarten:

a) direktes Messen (Lineale, Messgefäße etc.);

b) indirekte, vermittelte Messung (z. B. Pyrometer, die die Körpertemperatur durch Messung der Strahlungsenergie messen; Dehnungsmessstreifen und Sensoren - Druck durch elektrische Prozesse im Gerät selbst; usw.). 2.

Stärkung der natürlichen Organe einer Person, ohne jedoch das Wesen und die Art der beobachteten und gemessenen Merkmale zu verändern. Dies sind optische Geräte (von der Brille bis zum Teleskop), viele akustische Geräte usw. 3.

Transformation natürlicher Prozesse und Phänomene von einer Art in eine andere, zugänglich für den Beobachter und / oder seine Beobachtungs- und Messgeräte. Dies sind das Röntgengerät, Szintillationssensoren usw.

4. Versuchsinstrumente und -geräte sowie deren Systeme, einschließlich Beobachtungs- und Messinstrumente als integraler Bestandteil. Die Bandbreite solcher Geräte reicht bis zur Größe riesiger Teilchenbeschleuniger wie Serpukhov. In ihnen werden Prozesse und Objekte verschiedener Art relativ von der Umwelt isoliert, sie werden reguliert, kontrolliert und Phänomene in reinster Form (dh ohne andere äußere Phänomene und Prozesse, Interferenzen, Störfaktoren usw.) unterschieden.

5. Demonstrationsgeräte, die dazu dienen, während des Trainings verschiedene Eigenschaften, Phänomene und Muster unterschiedlicher Art visuell zu demonstrieren. Dazu gehören auch Prüfstände und Simulatoren verschiedener Art, da sie visuell sind und oft bestimmte Phänomene imitieren, als ob sie Studenten täuschen würden.

Es gibt auch Geräte und Geräte: a) für Forschungszwecke (sie sind hier die Hauptsache für uns) und b) für Massenverbraucherzwecke. Der Fortschritt der Instrumentierung ist nicht nur das Anliegen der Wissenschaftler, sondern in erster Linie der Konstrukteure und Instrumentenbauer.

Man kann auch unterscheiden zwischen Modellgeräten, als ob sie die Fortsetzung aller vorherigen in Form ihrer Stellvertreter wären, sowie verkleinerten Kopien und Modellen von realen Geräten und Geräten, natürlichen Objekten. Ein Beispiel für Modelle der ersten Art sind kybernetische und Computersimulationen realer Objekte, die es ermöglichen, reale Objekte zu studieren und zu entwerfen, oft in einem breiten Spektrum einigermaßen ähnlicher Systeme (in Steuerung und Kommunikation, Entwurf von Systemen und Kommunikation, Netzwerken verschiedener Art). , im CAD). Beispiele für Modelle der zweiten Art sind reale Modelle einer Brücke, eines Flugzeugs, eines Damms, eines Balkens, einer Maschine und ihrer Komponenten, irgendeiner Vorrichtung.

Im weiteren Sinne ist ein Gerät nicht nur eine künstliche Formation, sondern auch eine Umgebung, in der ein Prozess stattfindet. Als letzteres kann auch der Computer fungieren. Dann sagen sie, dass wir ein Computerexperiment haben (wenn wir mit Zahlen arbeiten).

Das Computerexperiment als Methode hat eine große Zukunft, da sich der Experimentator oft mit multifaktoriellen und kollektiven Prozessen beschäftigt, bei denen riesige Statistiken benötigt werden. Der Experimentator befasst sich auch mit aggressiven Umgebungen und Prozessen, die für Menschen und Lebewesen im Allgemeinen gefährlich sind (in Verbindung mit letzteren gibt es Die ökologischen Probleme wissenschaftliches und technisches Experiment).

Die Entwicklung der Physik des Mikrokosmos hat gezeigt, dass wir bei unserer theoretischen Beschreibung der Objekte des Mikrokosmos den Einfluss des Geräts auf die gewünschte Antwort prinzipiell nicht loswerden können. Außerdem können wir hier im Prinzip nicht gleichzeitig die Koordinaten und Impulse eines Mikroteilchens usw. messen; nach der Messung ist es notwendig, komplementäre Beschreibungen des Verhaltens des Teilchens aufgrund der Messwerte verschiedener Instrumente und nicht gleichzeitiger Beschreibungen der Messdaten zu erstellen (W. Heisenbergs Unschärferelation und N. Bohrs Komplementaritätsprinzip).

Fortschritte in der Instrumentierung schaffen oft eine echte Revolution in einer bestimmten Wissenschaft. Beispiele für Entdeckungen, die dank der Erfindung des Mikroskops, des Teleskops, des Röntgengeräts, des Spektroskops und des Spektrometers gemacht wurden, die Einrichtung von Satellitenlabors, der Start von Instrumenten in den Weltraum auf Satelliten usw. sind klassische Beispiele. Die Ausgaben für Instrumente und Experimente machen in vielen Forschungsinstituten oft den Löwenanteil ihres Budgets aus. Heutzutage gibt es viele Beispiele, bei denen Experimente für ganze ziemlich große Länder nicht erschwinglich sind und sie daher auf wissenschaftliche Zusammenarbeit setzen (wie CERN in der Schweiz, in Weltraumprogrammen usw.).

Im Laufe der Entwicklung der Wissenschaft wird die Rolle der Instrumente oft verzerrt und überzeichnet. So entstand in der Philosophie im Zusammenhang mit den etwas weiter oben erwähnten Besonderheiten des Experiments in der Mikrowelt die Vorstellung, dass auf diesem Gebiet unser gesamtes Wissen ausschließlich instrumentellen Ursprungs ist. Das Gerät, als würde es das Wissensthema fortsetzen, greift in den objektiven Ablauf der Ereignisse ein. Daraus wird der Schluss gezogen: Unser gesamtes Wissen über die Objekte des Mikrokosmos ist subjektiv, es ist instrumentellen Ursprungs. Infolgedessen entstand in der Wissenschaft des 20. Jahrhunderts eine ganze Richtung der Philosophie - der instrumentelle Idealismus oder Operationalismus (P. Bridgman). Natürlich folgte darauf Kritik, aber eine solche Idee findet sich immer noch unter Wissenschaftlern. In vielerlei Hinsicht entstand es aus der Unterschätzung des theoretischen Wissens und der Erkenntnis sowie seiner Fähigkeiten.

Überwachung. Beobachtung ist eine deskriptive psychologische Forschungsmethode, die in der gezielten und organisierten Wahrnehmung und Registrierung des Verhaltens des untersuchten Objekts besteht. Beobachtung gilt neben der Introspektion als die älteste psychologische Methode. Wissenschaftliche Beobachtung wurde in den Bereichen der wissenschaftlichen Erkenntnis weit verbreitet, wo spezielle Bedeutung hat eine Fixierung der Merkmale menschlichen Verhaltens in sich verschiedene Bedingungen. Auch wenn Eingriffe in den natürlichen Prozessablauf nicht möglich oder unzulässig sind.

Die Beobachtung kann sowohl direkt vom Forscher als auch mit Hilfe von Beobachtungsgeräten und der Fixierung ihrer Ergebnisse durchgeführt werden. Dazu gehören Audio-, Foto- und Videogeräte, einschließlich Überwachungskarten.

Hat mehrere Möglichkeiten.
Fremdbeobachtung ist eine Möglichkeit, Daten über die Psyche und Vorstellung einer Person durch direkte Beobachtung von der Seite zu sammeln.
Interne Beobachtung oder Selbstbeobachtung wird verwendet, wenn ein Forschungspsychologe sich die Aufgabe stellt, ein für ihn interessantes Phänomen in der Form zu untersuchen, in der es sich direkt in seinem Kopf darstellt. Der Psychologe nimmt das entsprechende Phänomen innerlich wahr und beobachtet es sozusagen (z. B. seine Bilder, Gefühle, Gedanken, Erfahrungen) oder verwendet ähnliche Daten, die ihm von anderen Personen mitgeteilt werden, die selbst auf seine Anweisung hin eine Selbstbeobachtung durchführen.

Die freie Beobachtung hat keinen vorgegebenen Rahmen, kein Programm, kein Verfahren für ihre Umsetzung. Es kann das Beobachtungssubjekt oder -objekt, seine Beschaffenheit im Laufe der Beobachtung selbst verändern, je nach Wunsch des Beobachters.

Standardisiertes Beobachten hingegen ist im Hinblick auf das Beobachtete vorbestimmt und klar begrenzt. Es wird nach einem bestimmten, vorher durchdachten Programm durchgeführt und folgt diesem strikt, unabhängig davon, was im Prozess der Beobachtung mit dem Objekt oder dem Beobachter selbst passiert.

Wenn die Beobachtung eingeschlossen ist, agiert der Forscher als direkter Teilnehmer an dem Prozess, dessen Verlauf er beobachtet. Eine weitere Variante der teilnehmenden Beobachtung: Bei der Untersuchung von Beziehungen zwischen Personen kann der Experimentator in die Kommunikation mit den beobachteten Personen eintreten, ohne gleichzeitig die Beziehungen zu beobachten, die sich zwischen ihnen und diesen Personen entwickeln.

Die Beobachtung durch Dritte impliziert im Gegensatz zur eingeschlossenen Beobachtung nicht die persönliche Teilnahme des Beobachters an dem Prozess, den er untersucht.

Jede dieser Beobachtungsarten hat ihre eigenen Eigenschaften und wird dort eingesetzt, wo sie die zuverlässigsten Ergebnisse liefern kann. Die Fremdbeobachtung beispielsweise ist weniger subjektiv als die Selbstbeobachtung und wird meist dort eingesetzt, wo die zu beobachtenden Merkmale leicht isoliert und von außen bewertet werden können. Die interne Beobachtung ist unverzichtbar und oft die einzig verfügbare Methode zur Sammlung psychologischer Daten in Fällen, in denen es keine zuverlässigen externen Anzeichen für das Phänomen gibt, das den Forscher interessiert.

Eine freie Beobachtung ist in den Fällen ratsam, in denen es unmöglich ist, genau zu bestimmen, was beobachtet werden soll, wenn die Anzeichen des untersuchten Phänomens und sein wahrscheinlicher Verlauf dem Forscher nicht im Voraus bekannt sind. Im Gegensatz dazu wird die standardisierte Beobachtung am besten verwendet, wenn der Forscher über eine genaue und ziemlich vollständige Liste von Merkmalen verfügt, die sich auf das zu untersuchende Phänomen beziehen.

Beteiligte Beobachtung ist dann sinnvoll, wenn ein Psychologe ein Phänomen nur durch eigene Erfahrung richtig einschätzen kann. Wenn jedoch unter dem Einfluss der persönlichen Beteiligung des Forschers seine Wahrnehmung und sein Verständnis des Ereignisses verzerrt werden können, ist es besser, sich an die Beobachtung durch Dritte zu wenden, deren Verwendung es Ihnen ermöglicht, das Beobachtete objektiver zu beurteilen .

Die systematische Beobachtung ist unterteilt in:
- Nichtsystematische Beobachtung, bei der es darum geht, ein verallgemeinertes Bild des Verhaltens eines Individuums oder einer Gruppe von Individuen unter bestimmten Bedingungen zu erstellen und nicht darauf abzielt, kausale Abhängigkeiten zu fixieren und Phänomene streng zu beschreiben.
- (Systematische Beobachtung, die nach einem bestimmten Plan durchgeführt wird und bei der der Forscher die Merkmale des Aussehens registriert und die Bedingungen der äußeren Umgebung klassifiziert.

Während der Feldstudie erfolgt eine systematische Beobachtung. Ergebnis: Erstellung eines verallgemeinerten Bildes des Verhaltens eines Individuums oder einer Gruppe unter bestimmten Bedingungen. Die systematische Überwachung erfolgt nach einem bestimmten Plan. Ergebnis: Erfassung von Verhaltensmerkmalen (Variablen) und Klassifizierung von Umweltbedingungen.

Bei feststehenden Objekten geschieht die Beobachtung:
- Totale Beobachtung. Der Forscher versucht, alle Verhaltensmerkmale zu fixieren.
- Selektive Beobachtung. Der Forscher legt nur bestimmte Arten von Verhaltenshandlungen oder Verhaltensparametern fest.

Die Beobachtung hat eine Reihe von Vorteilen:
- Die Beobachtung ermöglicht es Ihnen, die Verhaltenshandlungen direkt zu erfassen und zu korrigieren.
- Beobachtung ermöglicht es Ihnen, das Verhalten mehrerer Personen in Bezug zueinander oder zu bestimmten Aufgaben, Objekten usw. gleichzeitig zu erfassen.
- Beobachtung ermöglicht es Ihnen, eine Studie unabhängig von der Bereitschaft der beobachteten Probanden durchzuführen.
- Durch Beobachtung können Sie eine mehrdimensionale Abdeckung erreichen, dh eine Fixierung auf mehrere Parameter gleichzeitig - zum Beispiel verbales und nonverbales Verhalten.
- Effizienz der Informationsbeschaffung.
- Relative Billigkeit der Methode.

Gleichzeitig gibt es aber auch Nachteile. Zu den Nachteilen der Beobachtung gehören:
- Zahlreiche irrelevante, störende Faktoren, die die Beobachtungsergebnisse beeinflussen können:
- Stimmung des Beobachters;
- die soziale Stellung des Beobachters im Verhältnis zum Beobachteten;
- Beobachterverzerrung;
- Komplexität der beobachteten Situationen;
- Wirkung des ersten Eindrucks;
- Ermüdung des Beobachters und des Beobachteten;
- Schätzfehler („Halo-Effekt“, „Leniency-Effekt“, Mittelungsfehler, Modellierungsfehler, Kontrastfehler).
- Das einmalige Auftreten der beobachteten Umstände, was dazu führt, dass aufgrund einzelner beobachteter Tatsachen keine verallgemeinernde Schlussfolgerung gezogen werden kann.
- Die Notwendigkeit, die Ergebnisse der Beobachtung zu klassifizieren.
- Geringe Repräsentativität für große Populationen.
- Schwierigkeit, die Betriebsvalidität aufrechtzuerhalten.

Befragung. Das Fragen, wie das Beobachten, ist eine der häufigsten Forschungsmethoden in Psychologie. Fragebögen werden in der Regel unter Verwendung von Beobachtungsdaten durchgeführt, die (zusammen mit Daten, die mit anderen Forschungsmethoden gewonnen wurden) bei der Gestaltung von Fragebögen verwendet werden.

Es gibt drei Haupttypen von Fragebögen, die in der Psychologie verwendet werden:
- besteht aus direkten Fragen und zielt darauf ab, die wahrgenommenen Qualitäten der Probanden zu identifizieren.
- Fragebögen selektiver Art, bei denen den Probanden mehrere vorgefertigte Antworten für jede Frage des Fragebogens angeboten werden; Die Aufgabe der Versuchsperson besteht darin, die am besten geeignete Antwort auszuwählen.
- Fragebögen-Skalen; Bei der Beantwortung der Fragen der Fragebogenskalen muss der Proband nicht nur die richtigste der vorgefertigten Antworten auswählen, sondern auch die Richtigkeit der vorgeschlagenen Antworten analysieren (in Punkten bewerten).

Fragebogen-Skalen sind die am stärksten formalisierte Art von Fragebögen, da sie eine genauere quantitative Analyse der Erhebungsdaten ermöglichen.

Der unbestreitbare Vorteil der Fragebogenmethode ist der schnelle Erhalt von Massenmaterial.

Der Nachteil der Fragebogenmethode besteht darin, dass Sie in der Regel nur am meisten öffnen können obere Schicht Faktoren: Materialien, die Fragebögen und Fragebögen (zusammengesetzt aus direkten Fragen an die Probanden) verwenden, können dem Forscher keine Vorstellung von vielen Mustern und kausalen Abhängigkeiten im Zusammenhang mit der Psychologie geben. Das Fragen ist ein Mittel der ersten Orientierung, ein Mittel der vorläufigen Intelligenz. Um die festgestellten Mängel der Umfrage auszugleichen, sollte die Verwendung dieser Methode mit der Verwendung aussagekräftigerer Forschungsmethoden kombiniert werden, sowie wiederholte Umfragen, die wahren Ziele der Umfragen vor den Probanden verschleiern usw.

Konversation ist eine der Psychologie eigene Methode zur Erforschung menschlichen Verhaltens, da in anderen Naturwissenschaften eine Kommunikation zwischen Subjekt und Forschungsgegenstand unmöglich ist.

Die Gesprächsmethode ist ein Dialog zwischen zwei Personen, bei dem eine Person die psychologischen Eigenschaften der anderen offenbart.

Das Gespräch wird als zusätzliche Methode in die Struktur des Experiments in der ersten Phase aufgenommen, wenn der Forscher Primärinformationen zum Thema sammelt, ihm Anweisungen gibt, motiviert usw. und so weiter letzter Schritt- in Form eines postexperimentellen Interviews.

Die Einhaltung aller notwendigen Bedingungen für die Gesprächsführung, einschließlich der Sammlung von Vorinformationen zu den Themen, macht diese Methode zu einem sehr effektiven Mittel der psychologischen Forschung. Daher ist es wünschenswert, dass das Interview unter Berücksichtigung der Daten durchgeführt wird, die mit Methoden wie Beobachtung und Fragebögen gewonnen wurden. In diesem Fall kann sein Zweck die Überprüfung vorläufiger Schlussfolgerungen umfassen, die sich aus den Ergebnissen der psychologischen Analyse ergeben und mit diesen Methoden der primären Orientierung in der Studie erhalten wurden psychologische Merkmale Test Objekte.

Eine Umfrage ist eine Methode, bei der eine Person eine Reihe von Fragen beantwortet, die ihr gestellt werden. Es gibt mehrere Umfrageoptionen und jede davon hat ihre eigenen Vor- und Nachteile.

Die mündliche Befragung wird in Fällen eingesetzt, in denen es wünschenswert ist, das Verhalten und die Reaktionen der Person zu beobachten, die die Fragen beantwortet. Diese Art von Umfrage ermöglicht es Ihnen, tiefer in die menschliche Psychologie einzudringen als eine schriftliche Umfrage, erfordert jedoch eine spezielle Ausbildung, Ausbildung und in der Regel einen großen Zeitaufwand für die Forschung. Die bei einer mündlichen Befragung erhaltenen Antworten der Probanden hängen maßgeblich von der Persönlichkeit der befragenden Person, den individuellen Eigenschaften des Beantworters und dem Verhalten beider Personen in der Befragungssituation ab.

Mit einer schriftlichen Umfrage können Sie eine größere Anzahl von Personen erreichen. Seine häufigste Form ist ein Fragebogen. Der Nachteil besteht jedoch darin, dass es mit dem Fragebogen nicht möglich ist, die Reaktionen des Befragten auf den Inhalt seiner Fragen im Voraus zu berücksichtigen und darauf aufbauend zu verändern.

Kostenlose Umfrage - eine Art mündliche oder schriftliche Umfrage, bei der die Liste der gestellten Fragen und möglichen Antworten darauf nicht im Voraus auf einen bestimmten Rahmen beschränkt ist. Eine Umfrage dieser Art ermöglicht es Ihnen, die Forschungstaktik und den Inhalt der gestellten Fragen flexibel zu ändern und nicht standardmäßige Antworten darauf zu erhalten.

Standardisierte Umfrage - Fragen und die Art der möglichen Antworten darauf sind vorgegeben und in der Regel auf ziemlich enge Grenzen beschränkt, was sie zeitlich und materiell wirtschaftlicher macht als eine kostenlose Umfrage.

Tests sind spezialisierte Methoden der psychodiagnostischen Untersuchung, mit denen Sie ein genaues quantitatives oder qualitatives Merkmal des untersuchten Phänomens erhalten können. Tests unterscheiden sich von anderen Forschungsmethoden dadurch, dass sie ein klares Verfahren zur Erhebung und Verarbeitung von Primärdaten sowie die Originalität ihrer anschließenden Interpretation implizieren.Mit Hilfe von Tests kann die Psychologie untersucht und miteinander verglichen werden. unterschiedliche Leute differenzierte und vergleichbare Bewertungen abgeben zu können.

Der Testfragebogen basiert auf einem System vorgefertigter, sorgfältig ausgewählter und auf Validität und Reliabilität getesteter Fragen, deren Antworten zur Beurteilung der psychologischen Qualitäten der Probanden herangezogen werden können.

Die Testaufgabe beinhaltet die Beurteilung der Psychologie und des Verhaltens einer Person auf der Grundlage dessen, was sie tut. Bei Tests dieser Art werden dem Probanden eine Reihe spezieller Aufgaben angeboten, deren Ergebnisse zur Beurteilung des Vorhandenseins oder Fehlens und des Entwicklungsgrades der untersuchten Qualität verwendet werden.

Testfragebogen und Testgegenstand anwendbar auf Menschen verschiedene Alter Zugehörigkeit zu unterschiedlichen Kulturen, mit unterschiedlichem Bildungsniveau, verschiedene Berufe und ungleich Lebenserfahrung. Das ist ihre positive Seite.

Der Nachteil von Tests ist, dass wenn sie verwendet werden und. Der Kandidat kann die erzielten Ergebnisse nach Belieben bewusst beeinflussen, insbesondere wenn er im Voraus weiß, wie der Test funktioniert und wie Psychologie und Verhalten anhand seiner Ergebnisse bewertet werden. Darüber hinaus sind der Testfragebogen und die Testaufgabe nicht anwendbar, wenn psychische Eigenschaften und Eigenschaften zu untersuchen sind, deren Vorhandensein der Proband nicht wissen kann, sich nicht ganz sicher ist, sich dessen nicht bewusst ist oder bewusst nicht akzeptieren will Präsenz in sich. Solche Eigenschaften sind zum Beispiel viele negative persönliche Eigenschaften und Verhaltensmotive. In diesen Fällen wird normalerweise die dritte Art von Tests verwendet - projektiv.

Projektive Tests. Projektive Tests basieren auf dem Projektionsmechanismus, wonach eine Person dazu neigt, unbewusste persönliche Eigenschaften, insbesondere Schwächen, anderen Menschen zuzuschreiben. Projektive Tests wurden entwickelt, um die psychologischen und Verhaltensmerkmale von Menschen zu untersuchen, die eine negative Einstellung verursachen. Mit solchen Tests wird die Psychologie des Probanden danach beurteilt, wie er Situationen, die Psychologie und das Verhalten von Menschen wahrnimmt und bewertet, welche persönlichen Eigenschaften, Motive positiver oder negativer Art er ihnen zuschreibt.

Mit dem projektiven Test führt der Psychologe die Versuchsperson in eine imaginäre, handlungsunbestimmte Situation ein, die willkürlich interpretiert werden kann.

Projektive Tests stellen erhöhte Anforderungen an das Bildungsniveau und die intellektuelle Reife der Probanden, und dies ist die hauptsächliche praktische Einschränkung ihrer Anwendbarkeit. Darüber hinaus erfordern solche Tests viel spezielles Training und eine hohe fachliche Qualifikation des Psychologen selbst.

Experiment. Die Besonderheit des Experiments als Methode der psychologischen Forschung liegt darin, dass es gezielt und durchdacht eine künstliche Situation schafft, in der die untersuchte Eigenschaft am besten unterschieden, manifestiert und bewertet wird. Der Hauptvorteil des Experiments besteht darin, dass es zuverlässiger als alle anderen Methoden erlaubt, Rückschlüsse auf die Ursache-Wirkungs-Beziehungen des untersuchten Phänomens mit anderen Phänomenen zu ziehen, um den Ursprung des Phänomens und seine Entwicklung wissenschaftlich zu erklären.

Es gibt zwei Haupttypen von Experimenten: Natur- und Laborexperimente.

Ein natürliches Experiment wird unter normalen Lebensbedingungen organisiert und durchgeführt, wobei der Experimentator praktisch nicht in den Lauf der Ereignisse eingreift und sie in der Form fixiert, in der sie sich von selbst entfalten.

Bei einem Laborexperiment wird eine künstliche Situation geschaffen, in der die zu untersuchende Eigenschaft am besten untersucht werden kann.

Die in einem natürlichen Experiment gewonnenen Daten entsprechen am besten dem typischen Lebensverhalten eines Individuums, der realen Psychologie des Menschen, sind aber aufgrund der fehlenden Fähigkeit des Experimentators, den Einfluss verschiedener Faktoren auf die Eigenschaft streng zu kontrollieren, nicht immer genau studiert werden. Im Gegensatz dazu gewinnen die Ergebnisse eines Laborexperiments an Genauigkeit, sind jedoch im Grad der Natürlichkeit - der Übereinstimmung mit dem Leben - unterlegen.

Modellierung als Methode wird verwendet, wenn die Untersuchung eines für einen Wissenschaftler interessanten Phänomens durch einfache Beobachtung, Befragung, Test oder Experiment aufgrund von Komplexität oder Unzugänglichkeit schwierig oder unmöglich ist. Dann greifen sie darauf zurück, ein künstliches Modell des untersuchten Phänomens zu erstellen, indem sie seine Hauptparameter und erwarteten Eigenschaften wiederholen. An diesem Modell wird dieses Phänomen im Detail untersucht und Rückschlüsse auf die Natur gezogen.

Modelle können technisch, logisch, mathematisch, kybernetisch sein.

Ein mathematisches Modell ist ein Ausdruck oder eine Formel, die Variablen und Beziehungen zwischen ihnen enthält und Elemente und Beziehungen in dem untersuchten Phänomen reproduziert.

Die technische Modellierung beinhaltet die Erstellung eines Geräts oder Geräts, das in seiner Wirkung dem ähnelt, was untersucht wird.

Kybernetische Modellierung basiert auf der Verwendung von Konzepten aus der Informatik und Kybernetik als Elemente des Modells.

Die Logikmodellierung basiert auf den Ideen und der Symbolik, die in der mathematischen Logik verwendet werden. Am meisten berühmte Beispiele Mathematische Modellierung in der Psychologie sind Formeln, die die Gesetze von Bouguer - Weber, Weber - Fechner und Stevens ausdrücken. Die logische Modellierung wird häufig zur Untersuchung des menschlichen Denkens und seines Vergleichs mit der Lösung von Problemen durch einen Computer verwendet.

Zusätzlich zu den oben genannten Methoden, die zum Sammeln von Primärinformationen bestimmt sind, verwendet die Psychologie in großem Umfang verschiedene Methoden und Techniken zur Verarbeitung dieser Daten, ihrer logischen und mathematischen Analyse, um sekundäre Ergebnisse zu erhalten, d.h. Tatsachen und Schlussfolgerungen, die sich aus der Interpretation der verarbeiteten Primärinformationen ergeben. Dazu werden insbesondere verschiedene Methoden der mathematischen Statistik eingesetzt, ohne die es oft nicht möglich ist, verlässliche Informationen über die untersuchten Phänomene zu erhalten, sowie Methoden der qualitativen Analyse.

Methoden der wissenschaftlichen Forschung sind jene Techniken und Mittel, mit denen Wissenschaftler zuverlässige Informationen erhalten, die weiter verwendet werden, um wissenschaftliche Theorien zu bilden und praktische Empfehlungen zu entwickeln.

Es ist üblich, zwei Hauptebenen wissenschaftlicher Erkenntnis zu unterscheiden: empirische und theoretische. Diese Teilung ist darauf zurückzuführen, dass das Subjekt empirisch (empirisch) und durch komplexe logische Operationen, also theoretisch, Erkenntnisse gewinnen kann.

Der empirische Wissensstand umfasst

Beobachtung von Phänomenen

Anhäufung und Auswahl von Fakten

Herstellen von Verbindungen zwischen ihnen.

Die empirische Ebene ist die Phase des Sammelns von Daten (Fakten) über soziale und natürliche Objekte. Auf der empirischen Ebene wird der Untersuchungsgegenstand hauptsächlich von der Seite der äußeren Beziehungen und Manifestationen reflektiert. Faktifizierende Aktivität ist zentral für diese Ebene. Diese Aufgaben werden mit geeigneten Methoden gelöst.

Das theoretische Wissensniveau ist mit der Vorherrschaft geistiger Aktivität verbunden, mit dem Verständnis von empirischem Material, seiner Verarbeitung. Auf der theoretischen Ebene zeigt es sich

Interne Struktur und Muster der Entwicklung von Systemen und Phänomenen

Ihre Wechselwirkung und Bedingtheit.

Empirische Forschung (aus dem Griechischen empeira – Erfahrung) ist „die Feststellung und Verallgemeinerung sozialer Tatsachen durch direkte oder indirekte Registrierung vergangener Ereignisse, die für das Untersuchte charakteristisch sind gesellschaftliche Erscheinungen, Objekte und Prozesse“)


Spitze