Empirische Methoden.

Empirischer Wissensstand- Dies ist ein Prozess der mentalen - sprachlichen - Verarbeitung sensorischer Daten, im Allgemeinen Informationen, die mit Hilfe der Sinne aufgenommen werden. Eine solche Verarbeitung kann in der Analyse, Klassifizierung und Verallgemeinerung des durch Beobachtung gewonnenen Materials bestehen. Hier werden Konzepte gebildet, die die beobachteten Objekte und Phänomene verallgemeinern. Damit wird die empirische Grundlage bestimmter Theorien gebildet.

Theoretischer Wissensstand- dies ist ein Prozess, der durch das Vorherrschen des rationalen Moments gekennzeichnet ist - Konzepte, Theorien, Gesetze und andere Denkformen und "geistige Operationen". Die lebendige Kontemplation, die sinnliche Wahrnehmung wird hier nicht eliminiert, sondern wird zu einem untergeordneten (aber sehr wichtigen) Aspekt des Erkenntnisprozesses. Theoretisches Wissen reflektiert Phänomene und Prozesse unter dem Gesichtspunkt ihrer universellen inneren Zusammenhänge und Muster, die durch rationale Verarbeitung empirischer Wissensdaten erfasst werden. Diese Verarbeitung erfolgt unter Verwendung von Abstraktionssystemen "höherer Ordnung" - wie Konzepte, Schlussfolgerungen, Gesetze, Kategorien, Prinzipien usw.

Empirische Methoden enthalten:

Überwachung- gezielte, organisierte Wahrnehmung von Objekten und Phänomenen. Wissenschaftliche Beobachtungen werden durchgeführt, um Fakten zu sammeln, die eine bestimmte Hypothese stärken oder widerlegen und die Grundlage für bestimmte theoretische Verallgemeinerungen bilden. Das Ergebnis der Beobachtung ist eine Beschreibung des Objekts, die mit Hilfe von Sprache, Schemata, Grafiken, Diagrammen, Zeichnungen, digitalen Daten usw. Es gibt zwei Hauptarten der Beobachtung – qualitative und quantitative. Die erste zielt auf eine qualitative Beschreibung von Phänomenen ab, die zweite auf die Ermittlung und Beschreibung der quantitativen Parameter von Objekten. Die quantitative Beobachtung basiert auf dem Messverfahren.

Beschreibung- Fixierung von Informationen über Gegenstände mittels natürlicher oder künstlicher Sprache.

Messung- Dies ist der materielle Prozess des Vergleichs einer Größe mit einem Standard, einer Maßeinheit. Die Zahl, die das Verhältnis der gemessenen Größe zum Standard ausdrückt, wird als Zahlenwert dieser Größe bezeichnet.

Experiment- eine Forschungsmethode, die sich von der Beobachtung durch eine aktive Person unterscheidet. Diese Beobachtung erfolgt unter speziellen kontrollierten Bedingungen. Das Experiment ermöglicht es zum einen, das Untersuchungsobjekt vom Einfluss von Nebenwirkungen zu isolieren, die für es nicht wesentlich sind. Zweitens wird während des Experiments der Prozessablauf immer wieder reproduziert. Drittens ermöglicht Ihnen das Experiment, den Verlauf des untersuchten Prozesses und den Zustand des Untersuchungsobjekts systematisch zu ändern.

Der Wert der experimentellen Methode liegt darin, dass sie nicht nur auf kognitive, sondern auch auf anwendbar ist praktische Tätigkeiten Person. Experimente werden durchgeführt, um Projekte, Programme, neue Organisationsformen usw. zu testen. Die Ergebnisse jedes Experiments unterliegen der Interpretation aus Sicht der Theorie, die seine Rahmenbedingungen setzt.


Zu den theoretischen Methoden gehören:

Formalisierung– Konstruktion abstrakter mathematischer Modelle, die die Essenz der untersuchten Phänomene offenbaren.

Axiomatisierung - eine Methode zum Aufbau einer wissenschaftlichen Theorie, bei der sie auf einigen Anfangsbestimmungen basiert - Axiome oder Postulate, aus denen alle anderen Aussagen der Theorie deduktiv auf rein logische Weise durch Beweise abgeleitet werden. Diese Methode, eine Theorie zu konstruieren, beinhaltet einen umfangreichen Gebrauch von Deduktion. Euklids Geometrie kann als klassisches Beispiel für die Konstruktion einer Theorie nach der axiomatischen Methode dienen.

Hepotiko-deduktive Methode- Bildung eines Systems von deduktiv zusammenhängenden Hypothesen, aus denen eine Aussage über empirische Fakten abgeleitet wird. Wissen ist probabilistisch. Beinhaltet die Beziehung zwischen Hypothesen und Fakten.

Wir betrachten das Arsenal privater Methoden am Beispiel systemanalytischer Methoden. Am häufigsten werden verwendet: grafische Methoden, Szenario-Methode (versucht, das System zu beschreiben); Zielbaummethode (es gibt ein Endziel, es wird in Unterziele unterteilt, Unterziele in Probleme usw., d.h. Zerlegung in Aufgaben, die wir lösen können); Methode der morphologischen Analyse (für Erfindungen); Methoden der Expertenbewertung; probabilistisch-statistische Methoden (Erwartungstheorie, Spiele etc.); kybernetische Methoden (Objekt in Form einer Black Box); Vektoroptimierungsverfahren; Simulationsmethoden; Netzwerkmethoden; Matrixmethoden; Methoden der Wirtschaftsanalyse u Andere

Betrachten wir einige davon:

Grafische Methoden. Das Konzept eines Graphen wurde ursprünglich von L. Euler eingeführt. Grafische Darstellungen ermöglichen es, die Strukturen komplexer Systeme und die darin ablaufenden Prozesse visuell darzustellen. Aus dieser Sicht können sie als Mittelding zwischen den Methoden der formalisierten Repräsentation von Systemen und den Methoden der Aktivierung von Forschern angesehen werden. Tatsächlich können solche Werkzeuge wie Graphen, Diagramme, Histogramme, Baumstrukturen den Mitteln zur Aktivierung der Intuition von Forschern zugeschrieben werden. Gleichzeitig gibt es Methoden, die auf der Grundlage grafischer Darstellungen entstanden sind, die es ermöglichen, Fragen der Optimierung der Prozesse der Organisation, des Managements, der Gestaltung aufzuwerfen und zu lösen, und die mathematische Methoden im traditionellen Sinne sind. Dies sind insbesondere die Geometrie, die Graphentheorie und die darauf aufbauende angewandte Theorie der Netzwerkplanung und -steuerung sowie später eine Reihe von Methoden der statistischen Netzwerkmodellierung mittels probabilistischer Graphenschätzungen.

Brainstorming-Methode. Der Begriff Brainstorming oder Brainstorming ist seit den frühen 1950er Jahren weit verbreitet. als eine Methode des systematischen Trainings des kreativen Denkens, die darauf abzielt, neue Ideen zu entdecken und eine Einigung zwischen einer Gruppe von Menschen zu erzielen, die auf intuitivem Denken basiert. Brainstorming basiert auf der Hypothese, dass es unter einer großen Anzahl von Ideen zumindest einige gute gibt, die für die Lösung eines zu identifizierenden Problems nützlich sind. Methoden dieser Art werden auch als kollektive Ideenfindung, Ideenkonferenzen, Methode des Meinungsaustauschs bezeichnet.

Abhängig von den angenommenen Regeln und der Rigidität ihrer Umsetzung gibt es direktes Brainstorming, die Methode des Meinungsaustauschs, Methoden wie Kommissionen, Gerichte (im letzteren Fall werden zwei Gruppen gebildet: eine Gruppe macht so viele Vorschläge wie möglich, und der zweite versucht, sie so weit wie möglich zu kritisieren). Brainstorming kann in Form eines Planspiels durchgeführt werden, wobei eine Trainingstechnik verwendet wird, um die Beobachtung anzuregen, gemäß der sich die Gruppe eine Vorstellung von der Problemsituation macht und der Experte aufgefordert wird, die logischsten Wege zu finden um das Problem zu lösen.

Szenario-Methode. Methoden zur Vorbereitung und Abstimmung von Ideen zu einem Problem oder einem analysierten Objekt, die schriftlich festgehalten werden, nennt man Szenario-Methoden. Anfänglich beinhaltete diese Methode die Erstellung eines Textes, der eine logische Abfolge von Ereignissen oder mögliche Lösungen für ein Problem enthielt, die rechtzeitig eingesetzt wurden. Später wurde jedoch die obligatorische Anforderung von Zeitkoordinaten gestrichen, und jedes Dokument, das eine Analyse des betrachteten Problems und Vorschläge zu seiner Lösung oder zur Entwicklung des Systems enthielt, unabhängig von der Form, in der es präsentiert wurde, wurde aufgerufen ein Szenario. In der Praxis werden Vorschläge für die Erstellung solcher Dokumente in der Regel zunächst von Experten individuell verfasst und dann ein abgestimmter Text erstellt.

Das Szenario bietet nicht nur eine aussagekräftige Argumentation, die hilft, Details nicht zu übersehen, die in einem formalen Modell nicht berücksichtigt werden können (das ist eigentlich die Hauptaufgabe des Szenarios), sondern enthält in der Regel auch die Ergebnisse einer quantitativen technisch-ökonomischen oder statistischen Analyse Analyse mit vorläufigen Schlussfolgerungen. Die Expertengruppe, die das Szenario erstellt, hat in der Regel das Recht, die erforderlichen Informationen und Ratschläge vom Kunden einzuholen.

Die Rolle der Spezialisten zur Systemanalyse bei der Vorbereitung eines Szenarios - um den führenden Spezialisten in den relevanten Wissensgebieten zu helfen, die allgemeinen Muster der Systementwicklung zu identifizieren; externe und interne Einflussfaktoren auf seine Entwicklung und Zielformulierung analysieren; die Aussagen führender Experten in der Zeitschriftenpresse, wissenschaftlichen Veröffentlichungen und anderen Quellen wissenschaftlicher und technischer Informationen zu analysieren; Hilfsinformationsfonds schaffen, die zur Lösung des jeweiligen Problems beitragen.

Das Skript ermöglicht es Ihnen, eine vorläufige Vorstellung des Problems (Systems) in Situationen zu erstellen, die nicht sofort durch ein formales Modell dargestellt werden können. Das Skript ist jedoch immer noch ein Text mit allen daraus resultierenden Konsequenzen (Synonymie, Homonymie, Paradoxien), die eine mehrdeutige Interpretation ermöglichen. Daher sollte es als Grundlage für die Entwicklung einer formalisierteren Sicht auf das zukünftige System oder Problem, das gelöst werden soll, betrachtet werden.

Strukturierungsmethode. Strukturdarstellungen verschiedener Art ermöglichen es, ein komplexes Problem mit großer Unsicherheit in kleinere, der Forschung besser zugängliche zu unterteilen, was für sich genommen als eine bestimmte Forschungsmethode angesehen werden kann, manchmal auch als systemstrukturelle bezeichnet. Strukturierungsmethoden sind die Grundlage jeder Methode der Systemanalyse, jedes komplexen Algorithmus zur Organisation des Designs oder zum Treffen einer Managemententscheidung.

Zielbaummethode. Die Idee der Zielbaummethode wurde erstmals von W. Churchman im Zusammenhang mit den Problemen der Entscheidungsfindung in der Industrie vorgeschlagen. Der Begriff Baum impliziert die Verwendung einer hierarchischen Struktur, die erhalten wird, indem das allgemeine Ziel in Teilziele und diese wiederum in detailliertere Komponenten unterteilt werden, die in bestimmten Anwendungen als Teilziele niedrigerer Ebenen, Richtungen, Probleme und ausgehend von a bezeichnet werden bestimmte Ebene, Funktionen. Bei der Verwendung der Zielbaummethode als Entscheidungsinstrument wird häufig der Begriff Entscheidungsbaum verwendet. Bei der Anwendung der Methode zur Identifizierung und Verfeinerung der Funktionen des Steuerungssystems spricht man von einem Baum von Zielen und Funktionen. Bei der Strukturierung der Themen einer Forschungsorganisation spricht man vom Problembaum, bei der Entwicklung von Prognosen von einem Entwicklungsrichtungsbaum (Entwicklungsprognose) oder einem Prognosegraphen.

Delphi-Methode. Die Delphi-Methode bzw. Delphi-Orakel-Methode wurde ursprünglich von O. Helmer und seinen Kollegen als iteratives Verfahren zur Ideenfindung vorgeschlagen, das helfen soll, den Einfluss psychologischer Faktoren in Meetings zu reduzieren und die Objektivität der Ergebnisse zu erhöhen. Delphi-Verfahren wurden jedoch fast zeitgleich zu einem Mittel, um die Objektivität von Expertenbefragungen durch quantitative Bewertungen bei der vergleichenden Analyse der konstituierenden Zielbäume und bei der Entwicklung von Szenarien zu erhöhen. Die wichtigsten Mittel zur Erhöhung der Objektivität der Ergebnisse bei der Anwendung der Delphi-Methode sind der Einsatz von Feedback, das Kennenlernen der Ergebnisse der vorangegangenen Befragungsrunde und die Berücksichtigung dieser Ergebnisse bei der Bewertung der Aussagekraft von Expertenmeinungen.

In bestimmten Techniken, die das Delphi-Verfahren implementieren, wird diese Idee in unterschiedlichem Maße verwendet. Vereinfacht wird also eine Abfolge von iterativen Brainstorming-Zyklen organisiert. In einer komplexeren Version wird ein Programm sequentieller Einzelbefragungen unter Verwendung von Fragebogenmethoden entwickelt, die Kontakte zwischen Experten ausschließen, aber dafür sorgen, dass die Meinungen der anderen zwischen den Runden bekannt werden.

Methoden der Expertenbewertung. Einer der Vertreter dieser Methoden ist die Abstimmung. Traditionell werden Entscheidungen per Mehrheitsentscheidung getroffen: Es wird diejenige der beiden konkurrierenden Entscheidungen getroffen, für die mindestens 50 % der Stimmen und eine weitere Stimme abgegeben werden.

Methoden zur Organisation komplexer Prüfungen. Die oben diskutierten Mängel von Expertenbewertungen führten zu der Notwendigkeit, Methoden zu schaffen, die die Objektivität der Bewertung erhöhen, indem sie die große anfängliche Unsicherheit des Problems, die dem Experten zur Bewertung angeboten wird, in kleinere, besser verständliche aufteilen. Als einfachstes dieser Verfahren kann das in dem PATTERN-Verfahren vorgeschlagene Verfahren einer komplizierten Expertenprozedur verwendet werden. Bei dieser Technik werden Gruppen von Bewertungskriterien unterschieden, und es wird empfohlen, Gewichtungskoeffizienten der Kriterien einzuführen. Die Einführung von Kriterien ermöglicht es, eine Expertenbefragung differenzierter zu gestalten, und Gewichtungskoeffizienten erhöhen die Objektivität der resultierenden Einschätzungen.

Im Mittelpunkt jeder wissenschaftlichen Erkenntnis stehen bestimmte Methoden der Realitätserkennung, dank derer die Wissenschaftszweige die notwendigen Informationen für die Verarbeitung, Interpretation und Theoriebildung erhalten. Jede einzelne Branche hat ihre eigenen spezifischen Forschungsmethoden. Aber im Allgemeinen sind sie für alle gleich, und tatsächlich unterscheidet ihre Anwendung Wissenschaft von Pseudowissenschaft.

Empirische Forschungsmethoden, ihre Merkmale und Typen

Eine der ältesten und am weitesten verbreiteten sind empirische Methoden. IN antike Welt Es gab empiristische Philosophen, die es wussten die Umwelt durch sinnliche Wahrnehmung. Hier wurden Forschungsmethoden geboren, was wörtlich übersetzt „Wahrnehmung durch die Sinne“ bedeutet.

Empirische Methoden in der Psychologie gelten als grundlegend und am genauesten. Im Allgemeinen können bei der Untersuchung der Merkmale der geistigen Entwicklung einer Person zwei Hauptmethoden verwendet werden: ein Querschnitt, der empirische Forschung umfasst, und ein Längsschnitt, der sogenannte Längengrad, wenn eine Person Gegenstand der Forschung über eine ist über einen langen Zeitraum hinweg entwickelt und dabei die Züge seiner persönlichen Persönlichkeit zum Vorschein kommen.

Empirische Erkenntnismethoden beinhalten die Beobachtung von Phänomenen, ihre Fixierung und Einordnung sowie die Herstellung von Zusammenhängen und Mustern. Sie bestehen aus verschiedenen experimentellen Laborstudien, psychodiagnostischen Verfahren, biographischen Beschreibungen und existieren in der Psychologie seit dem 19. Jahrhundert, seit sie sich als eigener Wissenszweig von anderen Sozialwissenschaften abzuheben begann.

Überwachung

Beobachtung als Methode der empirischen Forschung in der Psychologie existiert in Form der Selbstbeobachtung (Introspektion) – der subjektiven Erkenntnis der eigenen Psyche – und in der objektiven Fremdbeobachtung. Darüber hinaus geschieht beides indirekt durch äußere Manifestationen. mentale Prozesse in verschiedenen Aktivitäts- und Verhaltensformen.

Im Gegensatz zur alltäglichen Beobachtung muss die wissenschaftliche Beobachtung bestimmte Anforderungen erfüllen, eine etablierte Methodik. Zunächst werden seine Aufgaben und Ziele festgelegt, dann werden das Objekt, das Thema und die Situationen sowie Methoden ausgewählt, die die vollständigsten Informationen liefern. Außerdem werden die Ergebnisse der Beobachtung aufgezeichnet und anschließend vom Forscher interpretiert.

Verschiedene Beobachtungsformen sind sicherlich interessant und unverzichtbar, gerade wenn es darum geht, am meisten zu komponieren großes Bild Verhalten von Menschen unter natürlichen Bedingungen und Situationen, in denen die Intervention eines Psychologen nicht erforderlich ist. Es gibt jedoch auch gewisse Schwierigkeiten bei der Interpretation der Phänomene, die mit den persönlichen Merkmalen des Beobachters verbunden sind.

Experiment

Darüber hinaus werden häufig empirische Methoden wie Laborexperimente eingesetzt. Sie unterscheiden sich dadurch, dass sie kausale Zusammenhänge in einer künstlich geschaffenen Umgebung untersuchen. Dabei modelliert der Experimentalpsychologe nicht nur eine konkrete Situation, sondern beeinflusst sie aktiv, verändert sie und variiert die Bedingungen. Darüber hinaus kann das erstellte Modell jeweils mehrfach wiederholt und die im Experiment gewonnenen Ergebnisse reproduziert werden. Experimentelle empirische Methoden ermöglichen es, innere seelische Prozesse mit Hilfe äußerer Manifestationen in einem künstlich geschaffenen Situationsmodell zu untersuchen. Auch in der Wissenschaft gibt es ein solches Experiment als Naturexperiment. Es wird unter natürlichen Bedingungen oder in der Nähe von ihnen durchgeführt. Eine andere Form der Methode ist ein formatives Experiment, das dazu dient, die Psychologie einer Person zu formen und zu verändern, während man sie studiert.

Psychodiagnostik

Empirische Methoden der Psychodiagnostik zielen darauf ab, Persönlichkeiten, Gemeinsamkeiten und Unterschiede zwischen Menschen anhand standardisierter Fragebögen, Tests und Fragebögen zu beschreiben und festzustellen.

Die aufgeführten Hauptmethoden der empirischen Forschung in der Psychologie werden in der Regel auf komplexe Weise angewendet. Sie ergänzen sich gegenseitig und helfen, die Eigenschaften der Psyche besser zu verstehen, neue Seiten der Persönlichkeit zu entdecken.

Ministerium für Bildung und Wissenschaft der Ukraine

Staatliche Technische Universität Donbass

Fakultät für Management

ABSTRAKT

Disziplin: "Methodik und Organisation wissenschaftlicher Forschung"

zum Thema: "Empirische Forschungsmethoden"


EINFÜHRUNG

6. Methoden, die die Arbeit mit den erhaltenen empirischen Informationen beinhalten

7. Methodische Aspekte

LITERATUR


EINFÜHRUNG

Die moderne Wissenschaft hat ihr aktuelles Niveau weitgehend aufgrund der Entwicklung ihres Werkzeugkastens erreicht - der Methoden der wissenschaftlichen Forschung. Alle derzeit existierenden wissenschaftlichen Methoden können in empirische und theoretische unterteilt werden. Ihre Hauptähnlichkeit ist das gemeinsame Ziel - die Feststellung der Wahrheit, der Hauptunterschied - der Forschungsansatz.

Wissenschaftler, die empirisches Wissen für die Hauptsache halten, werden „Praktiker“ genannt, Anhänger theoretischer Forschung bzw. „Theoretiker“. Die Entstehung zweier gegensätzlicher Wissenschaftsrichtungen ist auf die häufige Diskrepanz zwischen den Ergebnissen theoretischer Forschung und praktischer Erfahrung zurückzuführen.

In der Wissensgeschichte haben sich zur Frage des Verhältnisses von empirischer und theoretischer Ebene wissenschaftlicher Erkenntnis zwei extreme Positionen herausgebildet: Empirismus und scholastisches Theoretisieren. Befürworter des Empirismus reduzieren wissenschaftliches Wissen insgesamt auf die empirische Ebene, indem sie theoretisches Wissen herabsetzen oder vollständig ablehnen. Der Empirismus verabsolutiert die Rolle der Tatsachen und unterschätzt die Rolle des Denkens, der Abstraktionen und der Prinzipien in ihrer Verallgemeinerung, was es unmöglich macht, objektive Gesetze zu identifizieren. Sie kommen zu demselben Ergebnis, wenn sie die Unzulänglichkeit bloßer Tatsachen und die Notwendigkeit ihres theoretischen Verständnisses erkennen, aber mit Begriffen und Prinzipien nicht oder nicht kritisch und unbewusst umzugehen wissen.


1. Methoden zur Isolierung und Untersuchung eines empirischen Objekts

Empirische Forschungsmethoden umfassen all jene Methoden, Techniken, Methoden der kognitiven Aktivität sowie der Formulierung und Festigung von Wissen, die Inhalt der Praxis oder deren direktes Ergebnis sind. Sie können in zwei Untergruppen unterteilt werden: Methoden zur Isolierung und Untersuchung eines empirischen Objekts; Methoden der Verarbeitung und Systematisierung des erhaltenen Erfahrungswissens sowie über die ihnen entsprechenden Formen dieses Wissens. Dies kann mit einer Liste dargestellt werden:

⁻ Beobachtung - eine Methode zum Sammeln von Informationen auf der Grundlage der Registrierung und Fixierung von Primärdaten;

⁻ Studium der Primärdokumentation - basierend auf dem Studium der dokumentierten Informationen, die direkt früher aufgezeichnet wurden;

⁻ Vergleich - ermöglicht es Ihnen, das untersuchte Objekt mit seinem Analogon zu vergleichen;

⁻ Messung - eine Methode zur Bestimmung der tatsächlichen numerischen Werte der Eigenschaften des untersuchten Objekts anhand der entsprechenden Maßeinheiten, z. B. Watt, Ampere, Rubel, Standardstunden usw.;

⁻ normativ - beinhaltet die Verwendung einer Reihe bestimmter etablierter Standards, ein Vergleich, mit dem die tatsächlichen Indikatoren des Systems es Ihnen ermöglichen, die Übereinstimmung des Systems beispielsweise mit dem akzeptierten konzeptionellen Modell festzustellen; Standards können: die Zusammensetzung und den Inhalt von Funktionen, die Komplexität ihrer Umsetzung, die Anzahl des Personals, die Art usw. bestimmen. als Standards zur Definition von Normen dienen (z akzeptables Managementniveau, Komplexität der Ausübung von Funktionen) und erweiterte Werte, die im Verhältnis zu einem komplexen Indikator bestimmt werden (z. B. der Umschlagsstandard des Betriebskapitals; alle Normen und Standards müssen das gesamte System als Ganzes abdecken, wissenschaftlich fundiert sein, einen fortschrittlichen und zukunftsträchtigen Charakter haben);

⁻ Experiment - basierend auf der Untersuchung des Untersuchungsobjekts unter künstlich dafür geschaffenen Bedingungen.

Bei der Betrachtung dieser Methoden ist zu beachten, dass sie in der Liste nach dem Grad der Steigerung der Aktivität des Forschers angeordnet sind. Natürlich sind Beobachtung und Messung in allen Arten von Experimenten enthalten, aber sie sollten auch als eigenständige Methoden betrachtet werden, die in allen Wissenschaften weit verbreitet sind.

2. Beobachtung empirischer wissenschaftlicher Erkenntnisse

Beobachtung ist ein primärer und elementarer Erkenntnisprozess auf der empirischen Ebene wissenschaftlicher Erkenntnis. Als wissenschaftliche Beobachtung besteht sie in einer gezielten, organisierten, systematischen Wahrnehmung von Objekten und Phänomenen der Außenwelt. Merkmale der wissenschaftlichen Beobachtung:

stützt sich auf eine entwickelte Theorie oder individuelle theoretische Bestimmungen;

Sie dient dazu, ein bestimmtes theoretisches Problem zu lösen, neue Probleme zu formulieren, neue aufzustellen oder bestehende Hypothesen zu prüfen;

Hat einen vernünftig geplanten und organisierten Charakter;

Es ist systematisch und schließt Fehler zufälligen Ursprungs aus;

Es verwendet spezielle Beobachtungsmittel - Mikroskope, Teleskope, Kameras usw. - und erweitert damit erheblich den Umfang und die Möglichkeiten der Beobachtung.

Eine der wichtigen Bedingungen wissenschaftlicher Beobachtung ist, dass die gesammelten Daten nicht nur persönlich, subjektiv sind, sondern unter denselben Bedingungen auch von einem anderen Forscher erhalten werden können. All dies weist auf die notwendige Genauigkeit und Gründlichkeit der Anwendung dieser Methode hin, wobei die Rolle eines bestimmten Wissenschaftlers besonders wichtig ist. Das ist allgemein bekannt und selbstverständlich.

In der Wissenschaft gibt es jedoch Fälle, in denen Entdeckungen aufgrund von Ungenauigkeiten und sogar Fehlern in den Beobachtungsergebnissen gemacht wurden. T

Eine Theorie oder eine akzeptierte Hypothese ermöglicht es, gezielt zu beobachten und zu entdecken, was ohne theoretische Vorgaben unbemerkt bleibt. Es sollte jedoch beachtet werden, dass der Forscher, „bewaffnet“ mit einer Theorie oder Hypothese, ziemlich voreingenommen sein wird, was einerseits die Suche effektiver macht, andererseits aber alle widersprüchlichen Phänomene beseitigen kann passen nicht in diese Hypothese. Aus diesem Umstand entstand in der Methodengeschichte eine empirische Herangehensweise, bei der sich der Forscher von jeder Hypothese (Theorie) vollständig zu befreien suchte, um die Reinheit von Beobachtung und Erfahrung zu gewährleisten.

In der Beobachtung zielt die Tätigkeit des Subjekts noch nicht darauf ab, das Studienfach zu transformieren. Das Objekt bleibt einer gezielten Veränderung und Untersuchung unzugänglich oder wird bewusst vor möglichen Einflüssen geschützt, um seinen natürlichen Zustand zu bewahren, und dies ist der Hauptvorteil der Beobachtungsmethode. Die Beobachtung, insbesondere unter Einbeziehung der Messung, kann den Forscher zu der Annahme eines notwendigen und regelmäßigen Zusammenhangs führen, ist aber für sich allein genommen völlig unzureichend, einen solchen Zusammenhang zu behaupten und zu beweisen. Die Verwendung von Instrumenten und Instrumenten erweitert die Beobachtungsmöglichkeiten unbegrenzt, überwindet jedoch nicht einige andere Mängel. Bei der Beobachtung bleibt die Abhängigkeit des Beobachters von dem untersuchten Prozess oder Phänomen erhalten. Der Beobachter kann, während er innerhalb der Beobachtungsgrenzen bleibt, das Objekt nicht verändern, es verwalten und streng kontrollieren, und in diesem Sinne ist seine Beobachtungstätigkeit relativ. Gleichzeitig greift ein Wissenschaftler bei der Vorbereitung einer Beobachtung und im Verlauf ihrer Durchführung in der Regel auf organisatorische und praktische Operationen mit dem Objekt zurück, die die Beobachtung dem Experiment näher bringen. Es ist auch offensichtlich, dass die Beobachtung ein notwendiger Bestandteil jedes Experiments ist und in diesem Zusammenhang dann auch seine Aufgaben und Funktionen bestimmt werden.

3. Beschaffung von Informationen durch die empirische Methode

Informationen zur empirischen Objektforschung

Methoden zur Gewinnung quantitativer Informationen werden durch zwei Arten von Operationen dargestellt - Zählen und Messen gemäß den objektiven Unterschieden zwischen diskret und kontinuierlich. Als Verfahren zum Erhalten genauer quantitativer Informationen bei der Zähloperation werden numerische Parameter bestimmt, die aus diskreten Elementen bestehen, während eine Eins-zu-Eins-Entsprechung zwischen den Elementen des Satzes, aus dem die Gruppe besteht, und den numerischen Zeichen mit denen hergestellt wird die Zählung bleibt erhalten. Die Zahlen selbst spiegeln objektiv vorhandene Mengenverhältnisse wider.

Es sollte klar sein, dass numerische Formen und Zeichen sowohl im wissenschaftlichen als auch im alltäglichen Wissen eine Vielzahl von Funktionen erfüllen, von denen nicht alle mit dem Messen zusammenhängen:

Sie sind Mittel der Benennung, eine Art Etiketten oder bequeme Erkennungszeichen;

Sie sind ein Zählwerkzeug;

Sie fungieren als Zeichen, um einen bestimmten Platz in einem geordneten Gradsystem einer bestimmten Eigenschaft zu bezeichnen;

Sie sind ein Mittel, um die Gleichheit von Intervallen oder Differenzen festzustellen;

Sie sind Zeichen, die quantitative Beziehungen zwischen Qualitäten ausdrücken, d. h. Mittel, um Quantitäten auszudrücken.

Betrachtet man verschiedene Skalen, die auf der Verwendung von Zahlen basieren, muss zwischen diesen Funktionen unterschieden werden, die abwechselnd entweder von einer speziellen Zeichenform von Zahlen oder von Zahlen ausgeführt werden, die als semantische Werte der entsprechenden Zahlenformen fungieren. Aus dieser Sicht ist es offensichtlich, dass die Namensskalen, Beispiele dafür sind die Nummerierung von Sportlern in Mannschaften, Autos in der Landesverkehrsinspektion, Bus- und Straßenbahnlinien usw., weder ein Maß noch eine Bestandsaufnahme sind, da hier erfüllen numerische Formen die Funktion des Benennens und nicht eines Kontos.

Ein ernstes Problem bleibt die Messmethode in den Sozial- und Geisteswissenschaften. Das sind zunächst die Schwierigkeiten, quantitative Informationen über viele soziale, sozialpsychologische Phänomene zu sammeln, für die es in vielen Fällen keine objektiven, instrumentellen Messmethoden gibt. Auch die Methoden zur Isolierung diskreter Elemente und die objektive Analyse selbst sind schwierig, nicht nur aufgrund der Eigenschaften des Objekts, sondern auch wegen der Einmischung in nichtwissenschaftliche Wertfaktoren - Vorurteile. Alltagsbewusstsein, religiöse Weltanschauung, weltanschauliche oder korporative Verbote etc. Es ist bekannt, dass viele sogenannte Assessments, zum Beispiel Schülerwissen, hohes Level, hängen oft von der Qualifikation, Ehrlichkeit, Korporatismus und anderen subjektiven Eigenschaften von Lehrern, Richtern, Jurymitgliedern ab. Anscheinend kann diese Art der Bewertung nicht als Messung im eigentlichen Sinne des Wortes bezeichnet werden, die, wie die Messwissenschaft - Metrologie definiert, den Vergleich einer gegebenen Größe durch ein physikalisches (technisches) Verfahren mit dem einen oder anderen Wert einer akzeptierten Größe beinhaltet Standard - Maßeinheiten und Erzielung eines genauen quantitativen Ergebnisses.


4. Experiment - die grundlegende Methode der Wissenschaft

Zu einer so komplexen wissenschaftlichen Grundmethode wie dem Experiment gehören sowohl Beobachtung als auch Messung. Im Gegensatz zur Beobachtung ist ein Experiment durch das Eingreifen des Forschers in die Position der Untersuchungsobjekte, durch das aktive Einwirken verschiedener Instrumente und experimenteller Mittel auf den Forschungsgegenstand gekennzeichnet. Ein Experiment ist eine der Übungsformen, die das Zusammenspiel von Objekten nach Naturgesetzen und eine von einem Menschen künstlich organisierte Handlung verbindet. Als Methode der empirischen Forschung geht diese Methode davon aus und ermöglicht die Durchführung der folgenden Operationen in Übereinstimmung mit dem zu lösenden Problem:

₋ Konstruktivierung des Objekts;

₋ Isolierung des Gegenstands oder Gegenstands der Forschung, seine Isolierung vom Einfluss von Nebenwirkungen und Verschleierung des Wesens von Phänomenen, das Studium in einer relativ reinen Form;

₋ empirische Interpretation anfänglicher theoretischer Konzepte und Bestimmungen, Auswahl oder Schaffung experimenteller Mittel;

₋ gezielte Einwirkung auf das Objekt: systematische Veränderung, Variation, Kombination verschiedener Bedingungen, um das gewünschte Ergebnis zu erzielen;

₋ Mehrfache Reproduktion des Prozessablaufs, Fixierung von Daten in Beobachtungsprotokollen, deren Verarbeitung und Übertragung auf andere, nicht untersuchte Objekte der Klasse.

Das Experiment wird nicht spontan, nicht zufällig durchgeführt, sondern um bestimmte wissenschaftliche Probleme und kognitive Aufgaben zu lösen, die durch den Stand der Theorie vorgegeben sind. Sie ist als Hauptakkumulationsmittel beim Studium von Tatsachen notwendig, die die empirische Grundlage jeder Theorie bilden; sie ist, wie alle Praxis insgesamt, ein objektives Kriterium der relativen Wahrheit theoretischer Sätze und Hypothesen.

Die Subjektstruktur des Experiments ermöglicht es, die folgenden drei Elemente zu isolieren: das erkennende Subjekt (der Experimentator), die Mittel des Experiments und das Objekt der experimentellen Studie.

Auf dieser Grundlage kann eine verzweigte Einteilung der Experimente erfolgen. Je nach qualitativem Unterschied zwischen den Untersuchungsgegenständen kann zwischen physikalischen, technischen, biologischen, psychologischen, soziologischen usw. unterschieden werden. Die Art und Vielfalt der Mittel und Bedingungen des Experiments ermöglichen eine Unterscheidung zwischen direkt (natürlich) und Modell , Feld- und Laborexperimente. Wenn wir die Ziele des Experimentators berücksichtigen, dann gibt es Such-, Mess- und Verifikationstypen von Experimenten. Schließlich kann man je nach Art der Strategie unterscheiden zwischen Experimenten, die durch Trial-and-Error durchgeführt werden, Experimenten, die auf einem geschlossenen Algorithmus basieren (z. B. Galileos Untersuchung des Fallens von Körpern), einem Experiment, das die „Black-Box“-Methode verwendet , „Stufenstrategie“ usw.

Das klassische Experiment basierte auf solchen methodologischen Voraussetzungen, die bis zu einem gewissen Grad Laplaces Vorstellungen über den Determinismus als eindeutigen kausalen Zusammenhang widerspiegelten. Es wurde angenommen, dass es bei Kenntnis des Anfangszustands des Systems unter bestimmten konstanten Bedingungen möglich ist, das Verhalten dieses Systems in der Zukunft vorherzusagen; man kann das zu untersuchende Phänomen klar herausgreifen, in die gewünschte Richtung umsetzen, alle Störfaktoren streng ordnen oder als unbedeutend ignorieren (z. B. das Subjekt aus den Erkenntnisergebnissen ausschließen).

Zunehmende Bedeutung probabilistisch-statistischer Konzepte und Prinzipien in der Praxis moderne Wissenschaft, sowie die Anerkennung nicht nur der objektiven Gewissheit, sondern auch der objektiven Unsicherheit und in diesem Zusammenhang das Verständnis von Determination als relative Unsicherheit (bzw. als Begrenzung der Unsicherheit) führten zu einem neuen Verständnis von Struktur und Prinzipien des Experiments. Die Entwicklung einer neuen experimentellen Strategie wurde direkt durch den Übergang von der Untersuchung gut organisierter Systeme, bei denen es möglich war, Phänomene zu unterscheiden, die von einer kleinen Anzahl von Variablen abhängen, zur Untersuchung sogenannter diffuser oder schlecht organisierter Systeme verursacht Systeme. In diesen Systemen ist es unmöglich, einzelne Phänomene klar zu unterscheiden und zwischen der Wirkung von Variablen unterschiedlicher physikalischer Natur zu unterscheiden. Dies erforderte eine breitere Anwendung statistischer Methoden und führte tatsächlich das "Konzept des Falls" in das Experiment ein. Das Programm des Experiments wurde so gestaltet, dass zahlreiche Faktoren maximal diversifiziert und statistisch berücksichtigt wurden.

So ist aus dem Experiment von einem einfaktoriellen, starr bestimmten, einwertigen Zusammenhängen und Zusammenhängen abbildenden Verfahren eine Methode geworden, die viele Faktoren eines komplexen (diffusen) Systems berücksichtigt und ein- und mehrwertige Zusammenhänge abbildet, d.h. das Experiment hat einen probabilistisch-deterministischen Charakter angenommen. Darüber hinaus ist auch die Strategie des Experiments selbst oft nicht starr festgelegt und kann sich in Abhängigkeit von den Ergebnissen in jeder Phase ändern.

Materielle Modelle spiegeln die entsprechenden Objekte in drei Formen der Ähnlichkeit wider: physikalische Ähnlichkeit, Analogie und Isomorphie als eine Eins-zu-Eins-Entsprechung von Strukturen. Ein Modellversuch befasst sich mit einem Materialmodell, das sowohl Untersuchungsobjekt als auch experimentelles Werkzeug ist. Mit der Einführung des Modells wird die Struktur des Experiments viel komplizierter. Jetzt interagieren der Forscher und das Gerät nicht mit dem Objekt selbst, sondern nur noch mit dem Modell, das es ersetzt, wodurch der Ablauf des Experiments viel komplizierter wird. Die Rolle der theoretischen Seite der Studie nimmt zu, da es notwendig ist, die Ähnlichkeitsbeziehung zwischen dem Modell und dem Objekt zu begründen und die Möglichkeit, die erhaltenen Daten auf dieses Objekt zu extrapolieren. Betrachten wir, was die Essenz der Extrapolationsmethode und ihrer Merkmale bei der Modellierung ist.

Die Extrapolation als Verfahren zur Übertragung von Wissen von einem Fachgebiet auf ein anderes - unbeobachtetes und unerforschtes - auf der Grundlage einer identifizierten Beziehung zwischen ihnen ist eine der Operationen, die die Funktion haben, den Erkenntnisprozess zu optimieren.

In der wissenschaftlichen Forschung werden induktive Extrapolationen verwendet, bei denen das für einen Objekttyp ermittelte Muster mit gewissen Verfeinerungen auf andere Objekte übertragen wird. Hat man beispielsweise für ein Gas die Eigenschaft der Kompression festgestellt und in Form eines quantitativen Gesetzes ausgedrückt, kann man dies unter Berücksichtigung ihres Kompressionsverhältnisses auf andere, unerforschte Gase extrapolieren. Die exakte Naturwissenschaft bedient sich der Extrapolation beispielsweise dann, wenn sie eine Gleichung, die ein bestimmtes Gesetz beschreibt, auf einen unerforschten Bereich erweitert (mathematische Hypothese), wobei eine mögliche Änderung der Form dieser Gleichung angenommen wird. Im Allgemeinen versteht man in den experimentellen Wissenschaften unter Extrapolation die Verteilung von:

Qualitative Merkmale von einem Fachgebiet zum anderen, von Vergangenheit und Gegenwart bis zur Zukunft;

Quantitative Merkmale von einem Bereich von Objekten zu einem anderen, aggregieren zu einem anderen auf der Grundlage speziell dafür entwickelter Methoden;

Eine Gleichung für andere Fachgebiete innerhalb derselben Wissenschaft oder sogar für andere Wissensgebiete, die mit einer gewissen Modifikation und (oder) mit einer Neuinterpretation der Bedeutung ihrer Bestandteile verbunden ist.

Das Verfahren der Wissensvermittlung ist, da es nur relativ unabhängig ist, organisch in Methoden wie Induktion, Analogie, Modellierung, mathematische Hypothese, statistische Methoden und viele andere eingeschlossen. Im Fall der Simulation ist die Extrapolation in der Betriebsstruktur dieser Art von Experiment enthalten, die aus den folgenden Operationen und Verfahren besteht:

Theoretische Begründung des zukünftigen Modells, seine Ähnlichkeit mit dem Objekt, dh die Operation, die den Übergang vom Objekt zum Modell sicherstellt;

Erstellen eines Modells basierend auf Ähnlichkeitskriterien und dem Zweck der Studie;

Experimentelle Untersuchung des Modells;

Der Vorgang des Übergangs vom Modell zum Objekt, d.h. Extrapolation der Ergebnisse, die bei der Untersuchung des Modells auf das Objekt erhalten wurden.

In der Regel wird die geklärte Analogie in der wissenschaftlichen Modellierung verwendet, deren Spezialfälle beispielsweise die physikalische Ähnlichkeit und die physikalische Analogie sind. Es sei darauf hingewiesen, dass die Bedingungen für die Legitimität der Analogie nicht so sehr in Logik und Methodik entwickelt wurden, sondern in einer speziellen ingenieurwissenschaftlichen und mathematischen Theorie der Ähnlichkeit, die der modernen wissenschaftlichen Modellierung zugrunde liegt.

Die Ähnlichkeitstheorie formuliert die Bedingungen, unter denen die Legitimität des Übergangs von Aussagen über das Modell zu Aussagen über das Objekt sowohl für den Fall gewährleistet ist, dass Modell und Objekt derselben Bewegungsform angehören (physikalische Ähnlichkeit), als auch im Fall, dass Modell und Objekt derselben Bewegungsform angehören (physikalische Ähnlichkeit). Fall, wenn sie gehören verschiedene Formen Bewegung der Materie (physikalische Analogie). Solche Bedingungen sind die Ähnlichkeitskriterien, die geklärt und in der Simulation beobachtet wurden. So werden beispielsweise bei der hydraulischen Modellierung, die auf mechanischen Ähnlichkeitsgesetzen beruht, zwangsläufig geometrische, kinematische und dynamische Ähnlichkeiten beachtet. Geometrische Ähnlichkeit impliziert eine konstante Beziehung zwischen den entsprechenden linearen Abmessungen des Objekts und des Modells, ihrer Flächen und Volumina; kinematische Ähnlichkeit basiert auf einem konstanten Verhältnis von Geschwindigkeiten, Beschleunigungen und Zeitintervallen, in denen ähnliche Teilchen geometrisch ähnliche Flugbahnen beschreiben; schließlich sind das Modell und das Objekt dynamisch ähnlich, wenn die Verhältnisse von Massen und Kräften konstant sind. Es ist davon auszugehen, dass die Beachtung dieser Zusammenhänge dazu führt, dass bei der Extrapolation der Modelldaten auf das Objekt verlässliche Erkenntnisse gewonnen werden.

Die betrachteten empirischen Erkenntnismethoden liefern Tatsachenwissen über die Welt oder Tatsachen, in denen konkrete, unmittelbare Manifestationen der Wirklichkeit fixiert sind. Der Begriff Tatsache ist mehrdeutig. Es kann sowohl im Sinne eines Ereignisses, eines Fragments der Realität, als auch im Sinne einer besonderen Art empirischer Aussagen verwendet werden - Sätze, die Tatsachen festlegen, deren Inhalt es ist. Anders als Tatsachen der Realität, die unabhängig davon existieren, was Menschen über sie denken, und daher weder wahr noch falsch sind, besitzen Tatsachen in Form von Sätzen einen Wahrheitswert. Sie müssen empirisch wahr sein, d.h. ihre Wahrheit wird durch praktische Erfahrung festgestellt.

Nicht jede empirische Aussage erhält den Status einer wissenschaftlichen Tatsache bzw. eines eine wissenschaftliche Tatsache fixierenden Satzes. Wenn Aussagen nur einzelne Beobachtungen beschreiben, eine zufällige empirische Situation, dann bilden sie eine bestimmte Datenmenge, die nicht den notwendigen Grad an Allgemeingültigkeit hat. In den Naturwissenschaften und in einer Reihe von Sozialwissenschaften, zum Beispiel: Wirtschaftswissenschaften, Demographie, Soziologie, findet in der Regel eine statistische Verarbeitung eines bestimmten Datensatzes statt, die es ermöglicht, die darin enthaltenen Zufallselemente zu entfernen und, anstelle einer Reihe von Aussagen über die Daten eine zusammenfassende Aussage über diese Daten erhalten, die den Status einer wissenschaftlichen Tatsache erlangt.

5. Wissenschaftliche Fakten der empirischen Forschung

Als Wissen zeichnen sich wissenschaftliche Tatsachen durch einen hohen Wahrheitsgrad (Wahrscheinlichkeit) aus, da sie das „unmittelbar Gegebene“ fixieren, das Fragment der Realität selbst beschreiben (und nicht erklären oder interpretieren). Ein Faktum ist diskret, also gewissermaßen zeitlich und räumlich lokalisiert, was ihm eine gewisse Genauigkeit verleiht, um so mehr, als es sich um eine statistische, von Zufällen oder Erkenntnissen bereinigte Zusammenfassung empirischer Daten handelt, die das typische, Wesentlich im Objekt. Aber eine wissenschaftliche Tatsache ist zugleich eine relativ wahre Erkenntnis, sie ist nicht absolut, sondern relativ, das heißt, der weiteren Verfeinerung, Veränderung fähig, da das „unmittelbar Gegebene“ Elemente des Subjektiven enthält; die Beschreibung kann niemals vollständig sein; sowohl der im Tatsachenwissen beschriebene Gegenstand selbst als auch die Sprache, in der die Beschreibung erfolgt, ändern sich. Eine wissenschaftliche Tatsache ist, da sie diskret ist, gleichzeitig in einem sich wandelnden Wissenssystem enthalten; auch die Vorstellung davon, was eine wissenschaftliche Tatsache ist, ändert sich historisch.

Da die Struktur einer wissenschaftlichen Tatsache nicht nur Informationen umfasst, die von sinnlicher Wahrnehmung abhängen, sondern auch ihre rationalen Grundlagen, stellt sich die Frage nach der Rolle und den Formen dieser rationalen Komponenten. Darunter sind logische Strukturen, Begriffsapparate, einschließlich mathematischer, sowie philosophischer, methodologischer und theoretische Prinzipien und Voraussetzungen. Eine besonders wichtige Rolle spielen dabei die theoretischen Voraussetzungen zur Gewinnung, Beschreibung und Erklärung (Interpretation) des Sachverhalts. Ohne solche Voraussetzungen ist es oft unmöglich, bestimmte Tatsachen auch nur zu entdecken, geschweige denn zu verstehen. Die berühmtesten Beispiele aus der Wissenschaftsgeschichte sind die Entdeckung des Planeten Neptun durch den Astronomen I. Galle nach vorläufigen Berechnungen und Vorhersagen von W. Le Verrier; die von D. I. Mendelejew im Zusammenhang mit der Schaffung seines Periodensystems vorhergesagte Entdeckung chemischer Elemente; Nachweis des Positrons, theoretisch berechnet von P. Dirac, und die Entdeckung des Neutrinos, vorhergesagt von V. Pauli.

In der Naturwissenschaft tauchen Tatsachen in der Regel bereits in theoretischen Aspekten auf, da Forscher Instrumente verwenden, in denen theoretische Schemata objektiviert werden; dementsprechend unterliegen empirische Ergebnisse der theoretischen Interpretation. Bei aller Bedeutung dieser Momente sollten sie jedoch nicht verabsolutiert werden. Studien zeigen, dass man in jedem Stadium der Entwicklung einer bestimmten Naturwissenschaft eine riesige Schicht grundlegender empirischer Tatsachen und Muster entdecken kann, die noch nicht im Rahmen fundierter Theorien erfasst wurden.

So wurde eine der grundlegendsten astrophysikalischen Tatsachen der Expansion der Metagalaxie als statistische Zusammenfassung zahlreicher Beobachtungen des „Rotverschiebungs“-Phänomens in den Spektren entfernter Galaxien, die seit 1914 durchgeführt wurden, sowie der Interpretation dieser Beobachtungen festgestellt B. aufgrund des Doppler-Effekts. Dazu gehörte natürlich ein gewisses theoretisches Wissen aus der Physik, aber die Aufnahme dieser Tatsache in das System des Wissens über das Universum erfolgte unabhängig von der Entwicklung der Theorie, innerhalb derer sie verstanden und erklärt wurde, d.h. der Theorie der expandierendes Universum, zumal es viele Jahre nach den ersten Veröffentlichungen über die Entdeckung der Rotverschiebung in den Spektren von Spiralnebeln erschien. Die Theorie von A. A. Fridman half, diese Tatsache richtig einzuschätzen, die vor und unabhängig davon in das empirische Wissen über das Universum einging. Dies spricht für die relative Eigenständigkeit und Wertigkeit der empirischen Grundlage wissenschaftlicher und kognitiver Tätigkeit, die „auf Augenhöhe“ zusammenwirkt theoretische Ebene Wissen.

6. Methoden, die die Arbeit mit den erhaltenen empirischen Informationen beinhalten

Bisher haben wir über empirische Methoden gesprochen, die darauf abzielen, reale Objekte zu isolieren und zu untersuchen. Betrachten wir die zweite Gruppe von Methoden dieser Ebene, bei der es darum geht, mit den erhaltenen empirischen Informationen zu arbeiten - wissenschaftliche Fakten die verarbeitet, systematisiert, primär verallgemeinert usw. werden müssen.

Diese Methoden sind notwendig, wenn der Forscher auf der Ebene des vorhandenen, empfangenen Wissens arbeitet, sich nicht mehr direkt auf die Ereignisse der Realität bezieht, die erhaltenen Daten ordnet, versucht, regelmäßige Beziehungen - empirische Gesetze - zu entdecken, um Annahmen über ihre Existenz zu treffen. Dabei handelt es sich naturgemäß weitgehend um „rein logische“ Methoden, die sich nach den in erster Linie in der Logik angenommenen Gesetzmäßigkeiten entfalten, gleichzeitig aber in den Kontext der empirischen Ebene wissenschaftlicher Forschung mit der Aufgabe der Ordnungsmäßigkeit des aktuellen Wissensstandes eingebunden sind. Auf der Ebene gewöhnlicher vereinfachter Vorstellungen wird dieses Stadium der anfänglich überwiegend induktiven Verallgemeinerung von Wissen oft als der eigentliche Mechanismus zur Gewinnung einer Theorie interpretiert, in der der Einfluss des weit verbreiteten „allinduktiven“ Wissensbegriffs zu sehen ist in vergangenen Jahrhunderten.

Das Studium wissenschaftlicher Fakten beginnt mit ihrer Analyse. Als Analyse bezeichnet man eine Forschungsmethode, die in der gedanklichen Zerlegung (Zerlegung) eines Ganzen oder auch eines komplexen Phänomens in seine konstituierenden, einfacheren Elementarteile und der Zuordnung einzelner Aspekte, Eigenschaften, Zusammenhänge besteht. Aber die Analyse ist nicht das ultimative Ziel der wissenschaftlichen Forschung, die danach strebt, das Ganze zu reproduzieren, seine innere Struktur, die Art seiner Funktionsweise, die Gesetze seiner Entwicklung zu verstehen. Dieses Ziel wird durch eine anschließende theoretische und praktische Synthese erreicht.

Die Synthese ist eine Forschungsmethode, die darin besteht, die Verbindungen der analysierten Teile, Elemente, Seiten, Komponenten eines komplexen Phänomens zu verbinden, zu reproduzieren und das Ganze in seiner Einheit zu erfassen. Analyse und Synthese haben ihre objektiven Grundlagen in der Struktur und den Gesetzen der materiellen Welt selbst. In der objektiven Realität gibt es ein Ganzes und seine Teile, Einheit und Unterschiede, Kontinuität und Diskretion, ständig stattfindende Prozesse des Verfalls und der Verbindung, der Zerstörung und der Schöpfung. In allen Wissenschaften wird analytische und synthetische Tätigkeit ausgeübt, während sie in der Naturwissenschaft nicht nur gedanklich, sondern auch praktisch ausgeübt werden kann.

Schon der Übergang von der Faktenanalyse zur theoretischen Synthese vollzieht sich mit Hilfe von Methoden, die sich ergänzend und kombinierend den Inhalt dieses komplexen Prozesses ausmachen. Eine dieser Methoden ist die Induktion, die traditionell im engeren Sinne als Methode des Übergangs von der Erkenntnis einzelner Tatsachen zur Erkenntnis des Allgemeinen, zur empirischen Verallgemeinerung und zur Feststellung einer allgemeinen Position verstanden wird, die sich in ein Gesetz oder einen anderen wesentlichen Zusammenhang verwandelt . Die Schwäche der Induktion liegt in der fehlenden Rechtfertigung für einen solchen Übergang. Die Aufzählung von Tatsachen kann praktisch nie vollständig sein, und wir sind nicht sicher, ob die folgende Tatsache nicht widersprüchlich sein wird. Daher ist durch Induktion gewonnenes Wissen immer probabilistisch. Darüber hinaus enthalten die Prämissen des induktiven Schlusses kein Wissen darüber, wie verallgemeinerte Merkmale, Eigenschaften wesentlich sind. Mit Hilfe der Aufzählungsinduktion ist es möglich, Erkenntnisse zu gewinnen, die nicht zuverlässig, sondern nur wahrscheinlich sind. Es gibt auch eine Reihe anderer Methoden zur Verallgemeinerung empirischen Materials, mit deren Hilfe, wie bei der populären Induktion, die gewonnenen Erkenntnisse wahrscheinlich sind. Diese Methoden umfassen die Methode der Analogien, statistische Methoden, die Methode der Modellextrapolation. Sie unterscheiden sich im Gültigkeitsgrad des Übergangs von Tatsachen zu Verallgemeinerungen. Alle diese Methoden werden oft unter dem Oberbegriff Induktivität zusammengefasst, wobei der Begriff Induktion dann im weitesten Sinne verwendet wird.

Im allgemeinen Prozess der wissenschaftlichen Erkenntnis, induktiv und deduktive Methoden eng verflochten. Beide Methoden basieren auf der objektiven Dialektik von Individuellem und Allgemeinem, Phänomen und Essenz, Zufälligem und Notwendigem. Induktive Methoden haben eine größere Bedeutung in den Wissenschaften, die direkt auf Erfahrung basieren, während deduktive Methoden in den theoretischen Wissenschaften als Werkzeuge ihrer logischen Ordnung und Konstruktion, als Erklärungs- und Vorhersagemethoden von herausragender Bedeutung sind. Zur Verarbeitung und Verallgemeinerung von Sachverhalten in der wissenschaftlichen Forschung sind die Systematisierung als Reduktion auf ein einheitliches System und die Klassifikation als Einteilung in Klassen, Gruppen, Typen etc. weit verbreitet.

7. Methodische Aspekte

Bei der Entwicklung der methodologischen Aspekte der Klassifikationstheorie schlagen Methodologen vor, zwischen den folgenden Konzepten zu unterscheiden:

Klassifizierung ist die Aufteilung einer beliebigen Menge in Teilmengen nach beliebigen Kriterien;

Systematik - die Ordnung von Objekten, die den Status eines privilegierten Klassifikationssystems hat, das von der Natur selbst zugewiesen wird (natürliche Klassifikation);

Taxonomie ist die Lehre jeglicher Klassifikationen in Bezug auf die Struktur von Taxa (untergeordnete Gruppen von Objekten) und Merkmalen.

Klassifizierungsmethoden ermöglichen es Ihnen, zu lösen ganze Linie kognitive Aufgaben: die Vielfalt des Materials auf eine relativ kleine Anzahl von Formationen (Klassen, Typen, Formen, Typen, Gruppen usw.) reduzieren; Identifizierung der ersten Analyseeinheiten und Entwicklung eines Systems relevanter Konzepte und Begriffe; entdecken Sie Regelmäßigkeiten, stabile Merkmale und Beziehungen und letztendlich empirische Muster; die Ergebnisse bisheriger Forschung zusammenfassen und die Existenz bisher unbekannter Objekte oder deren Eigenschaften vorhersagen, neue Verbindungen und Abhängigkeiten zwischen bereits bekannten Objekten aufdecken. Die Erstellung von Klassifikationen sollte den folgenden logischen Anforderungen unterliegen: In derselben Klassifikation muss dieselbe Grundlage verwendet werden; das Volumen der Mitglieder der Klassifikation muss gleich dem Volumen der klassifizierten Klasse sein (Proportionalität der Teilung); Mitglieder der Klassifikation müssen sich gegenseitig ausschließen usw.

In den Naturwissenschaften werden sowohl deskriptive Klassifikationen vorgestellt, die es ermöglichen, die gesammelten Ergebnisse einfach in eine geeignete Form zu bringen, als auch strukturelle Klassifikationen, die es ermöglichen, die Beziehung von Objekten zu identifizieren und festzulegen. In der Physik sind beschreibende Klassifikationen also die Unterteilung grundlegender Teilchen nach Ladung, Spin, Masse, Fremdheit, durch Beteiligung an verschiedene Typen Interaktionen. Einige Gruppen von Partikeln können nach Symmetrietypen (Quarkstrukturen von Partikeln) klassifiziert werden, was eine tiefere, wesentliche Beziehungsebene widerspiegelt.

Die Studien der letzten Jahrzehnte haben die methodischen Probleme von Klassifikationen offengelegt, deren Kenntnis für einen modernen Forscher und Systematiker notwendig ist. Dies ist in erster Linie eine Diskrepanz zwischen den formalen Bedingungen und Regeln für die Konstruktion von Klassifikationen und der realen wissenschaftlichen Praxis. Das Erfordernis der Merkmalsdiskretheit führt in einer Reihe von Fällen zu künstlichen Verfahren zum Aufteilen des Ganzen in diskrete Merkmalswerte; ein kategorisches Urteil über die Eigenschaft des Objekts ist nicht immer möglich, bei den multistrukturellen Merkmalen beschränkt man sich auf die Angabe der Häufigkeit des Auftretens etc. Ein weitverbreitetes methodisches Problem ist die Schwierigkeit, zwei unterschiedliche Ziele miteinander zu verbinden eine Klassifizierung: der Ort des Materials, der für Buchhaltung und Suche geeignet ist; Identifizierung interner systemischer Zusammenhänge im Material - funktionelle, genetische und andere (Forschungsverbund).

Ein empirisches Gesetz ist die am weitesten entwickelte Form von probabilistischem empirischem Wissen, das induktive Methoden verwendet, um quantitative und andere empirisch erhaltene Abhängigkeiten beim Vergleich von Beobachtungs- und Experimenttatsachen zu fixieren. Dies ist sein Unterschied als Wissensform von einem theoretischen Gesetz - zuverlässiges Wissen, das mit Hilfe mathematischer Abstraktionen formuliert wird, sowie als Ergebnis theoretischer Argumentation, hauptsächlich als Ergebnis eines Gedankenexperiments an idealisierten Objekten.

Studien der letzten Jahrzehnte haben gezeigt, dass eine Theorie nicht durch induktive Verallgemeinerung und Systematisierung von Fakten gewonnen werden kann, sie nicht als logische Konsequenz von Fakten entsteht, die Mechanismen ihrer Entstehung und Konstruktion anderer Natur sind, einen Sprung suggerieren , ein Übergang zu einem qualitativ anderen Wissensstand, der Kreativität und Talent eines Forschers erfordert. Dies wird insbesondere durch die zahlreichen Aussagen von A. Einstein bestätigt, dass es keinen logisch notwendigen Weg von experimentellen Daten zur Theorie gibt; Konzepte, die in unserem Denkprozess entstehen.

Der empirische Informationsbestand liefert primäre Informationen über neue Erkenntnisse und viele Eigenschaften der untersuchten Objekte und dient somit als Ausgangsbasis für wissenschaftliche Forschung.

Empirische Methoden basieren in der Regel auf der Anwendung experimenteller Forschungsmethoden und -techniken, die es ermöglichen, sachliche Informationen über ein Objekt zu erhalten. Eine besondere Stellung unter ihnen nehmen grundlegende Methoden ein, die relativ häufig in der praktischen Forschungstätigkeit eingesetzt werden.


LITERATUR

1. Korotkov E.M. Studium der Kontrollsysteme. – M.: DEKA, 2000.

2. Lomonosov B.P., Mishin V.M. Systemforschung. - M .: CJSC "Inform-Wissen", 1998.

3. Malin A.S., Muchin V.I. Systemforschung. – M.: GU HSE, 2002.

4. Mischin V.M. Systemforschung. – M.: UNITI-DANA, 2003.

5. Mischin V.M. Systemforschung. - M.: CJSC "Finstatinform", 1998.

6. Kovalchuk V. V., Moiseev A. N. Grundlagen der wissenschaftlichen Forschung. K.: Wissen, 2005.

7. Filipenko A. S. Grundlagen der wissenschaftlichen Forschung. K.: Akademvidav, 2004.

8. Grishenko I. M. Grundlagen der wissenschaftlichen Forschung. K.: KNEU, 2001.

9. Ludchenko A. A. Grundlagen der wissenschaftlichen Forschung. K.: Wissen, 2001

10. Stechenko D. I., Chmir O. S. Methodik der wissenschaftlichen Forschung. K.: VD "Profi", 2005.

Empirische Forschungsmethoden

1. Empirische Methoden (Methodenoperationen).

Das Studium von Literatur, Dokumenten und Ergebnissen von Aktivitäten. Auf die Problematik der Arbeit mit wissenschaftlicher Literatur wird im Folgenden gesondert eingegangen, da diese nicht nur eine Forschungsmethode, sondern auch ein obligatorischer Verfahrensbestandteil jeder wissenschaftlichen Arbeit ist.

Eine Vielzahl von Dokumentationen dient auch als Quelle von Faktenmaterial für die Forschung: Archivalien in der historischen Forschung; Dokumentation von Unternehmen, Organisationen und Institutionen in wirtschaftlichen, soziologischen, pädagogischen und anderen Studien usw. Die Untersuchung von Leistungsergebnissen spielt eine wichtige Rolle in der Pädagogik, insbesondere bei der Untersuchung der Probleme der Berufsausbildung von Schülern und Studenten; in Psychologie, Pädagogik und Arbeitssoziologie; und zum Beispiel in der Archäologie bei Ausgrabungen die Analyse der Ergebnisse menschlicher Aktivitäten: nach den Überresten von Werkzeugen, Utensilien, Wohnungen usw. ermöglicht es Ihnen, ihre Lebensweise in einer bestimmten Zeit wiederherzustellen.

Beobachtung ist im Prinzip die aufschlussreichste Forschungsmethode. Dies ist die einzige Methode, die es Ihnen ermöglicht, alle Aspekte der untersuchten Phänomene und Prozesse zu sehen, die der Wahrnehmung des Betrachters zugänglich sind - sowohl direkt als auch mit Hilfe verschiedener Instrumente.

Abhängig von den Zielen, die mit dem Beobachtungsprozess verfolgt werden, kann letzterer wissenschaftlicher und nicht-wissenschaftlicher Natur sein. Die gezielte und organisierte Wahrnehmung von Objekten und Phänomenen der Außenwelt, die mit der Lösung eines bestimmten wissenschaftlichen Problems oder einer bestimmten Aufgabe verbunden ist, wird allgemein als wissenschaftliche Beobachtung bezeichnet. Bei wissenschaftlichen Beobachtungen werden bestimmte Informationen zum weiteren theoretischen Verständnis und zur Interpretation, zur Bestätigung oder Widerlegung von Hypothesen usw. eingeholt. Die wissenschaftliche Beobachtung besteht aus den folgenden Verfahren:

  • Bestimmung des Beobachtungszwecks (wozu, zu welchem ​​Zweck?);
  • Objektwahl, Prozess, Situation (was ist zu beachten?);
  • Wahl der Methode und Häufigkeit der Beobachtungen (wie beobachtet man?);
  • Wahl der Methoden zur Registrierung des beobachteten Objekts, Phänomens (wie werden die erhaltenen Informationen aufgezeichnet?);
  • Verarbeitung und Interpretation der erhaltenen Informationen (was ist das Ergebnis?).

Beobachtete Situationen werden unterteilt in:

  • · natürlich und künstlich;
  • vom Beobachtungsobjekt verwaltet und nicht kontrolliert;
  • Spontan und organisiert
  • Standard und Nicht-Standard;
  • normal und extrem usw.

Zudem kann sie je nach Beobachtungsorganisation offen und verborgen, Feld und Labor und je nach Art der Fixierung feststellend, bewertend und gemischt sein. Je nach Art der Informationsbeschaffung werden Beobachtungen in direkte und instrumentelle unterteilt. Je nach Umfang der untersuchten Objekte werden kontinuierliche und punktuelle Beobachtungen unterschieden; nach Frequenz - konstant, periodisch und einzeln. Ein Spezialfall der Beobachtung ist die Selbstbeobachtung, die beispielsweise in der Psychologie weit verbreitet ist.

Beobachtung ist für wissenschaftliche Erkenntnisse notwendig, da die Wissenschaft ohne sie keine ersten Informationen gewinnen könnte, keine wissenschaftlichen Fakten und empirischen Daten hätte und daher auch die theoretische Konstruktion von Wissen unmöglich wäre.

Die Beobachtung als Erkenntnismethode hat jedoch eine Reihe von erheblichen Nachteilen. Die persönlichen Eigenschaften des Forschers, seine Interessen und schließlich sein psychischer Zustand können die Beobachtungsergebnisse erheblich beeinflussen. Die objektiven Ergebnisse der Beobachtung unterliegen noch mehr Verzerrungen in den Fällen, in denen sich der Forscher darauf konzentriert, ein bestimmtes Ergebnis zu erzielen, seine bestehende Hypothese zu bestätigen.

Um objektive Beobachtungsergebnisse zu erhalten, müssen die Anforderungen der Intersubjektivität eingehalten werden, dh Beobachtungsdaten müssen (und / oder können) möglichst von anderen Beobachtern gewonnen und aufgezeichnet werden.

Das Ersetzen der direkten Beobachtung durch Instrumente erweitert die Möglichkeiten der Beobachtung ins Unendliche, schließt aber auch Subjektivität nicht aus; Die Auswertung und Interpretation einer solchen indirekten Beobachtung erfolgt durch die Versuchsperson, und daher kann die subjektive Beeinflussung durch den Forscher immer noch stattfinden.

Die Beobachtung wird meistens von einer anderen empirischen Methode begleitet - der Messung.

Messung. Messung wird überall verwendet, in jedem Menschliche Aktivität. So nimmt fast jeder Mensch im Laufe des Tages dutzende Male Messungen vor und schaut dabei auf die Uhr. Die allgemeine Definition von Messung lautet: „Messung ist kognitiver Prozess, das darin besteht, ... eine bestimmte Menge mit einem Teil ihres Wertes zu vergleichen, der als Vergleichsstandard verwendet wird “(siehe zum Beispiel).

Insbesondere ist die Messung eine empirische Methode (Methodenoperation) der wissenschaftlichen Forschung.

Sie können eine bestimmte Dimensionsstruktur auswählen, die die folgenden Elemente enthält:

1) ein erkennendes Subjekt, das Messungen mit bestimmten kognitiven Zielen durchführt;

2) Messinstrumente, zu denen sowohl vom Menschen entworfene Geräte und Werkzeuge als auch von der Natur gegebene Objekte und Prozesse gehören können;

3) das Messobjekt, dh die gemessene Größe oder Eigenschaft, auf die das Vergleichsverfahren anwendbar ist;

4) Methode oder Messmethode, die eine Reihe praktischer Handlungen, Operationen ist, die unter Verwendung von Messinstrumenten durchgeführt werden, und die auch bestimmte logische und rechnerische Verfahren umfasst;

5) das Messergebnis, das eine benannte Zahl ist, ausgedrückt durch die entsprechenden Namen oder Zeichen.

Die erkenntnistheoretische Fundierung der Messmethode ist untrennbar mit dem wissenschaftlichen Verständnis des Verhältnisses von qualitativen und quantitativen Merkmalen des untersuchten Objekts (Phänomens) verbunden. Obwohl mit dieser Methode nur quantitative Merkmale erfasst werden, sind diese Merkmale untrennbar mit der qualitativen Gewissheit des Untersuchungsgegenstandes verbunden. Dank der qualitativen Sicherheit ist es möglich, die zu messenden quantitativen Merkmale herauszugreifen. Die Einheit der qualitativen und quantitativen Aspekte des Untersuchungsobjekts bedeutet sowohl die relative Unabhängigkeit dieser Aspekte als auch ihre tiefe Verflechtung. Die relative Unabhängigkeit quantitativer Merkmale ermöglicht es, sie während des Messvorgangs zu untersuchen und die Messergebnisse zur Analyse der qualitativen Aspekte des Objekts zu verwenden.

Das Problem der Messgenauigkeit bezieht sich auch auf die erkenntnistheoretischen Grundlagen des Messens als Methode empirischer Erkenntnis. Die Messgenauigkeit hängt vom Verhältnis von objektiven und subjektiven Faktoren im Messprozess ab.

Zu diesen objektiven Faktoren gehören:

die Möglichkeit, bestimmte stabile quantitative Merkmale im Untersuchungsobjekt zu identifizieren, was in vielen Fällen der Forschung, insbesondere sozialer und humanitärer Phänomene und Prozesse, schwierig und manchmal sogar unmöglich ist;

- die Fähigkeiten von Messgeräten (der Grad ihrer Perfektion) und die Bedingungen, unter denen der Messprozess stattfindet. In einigen Fällen zu finden genauer Wert Größenordnung ist grundsätzlich unmöglich. Es ist zum Beispiel unmöglich, die Flugbahn eines Elektrons in einem Atom zu bestimmen und so weiter.

Zu den subjektiven Messfaktoren gehören die Wahl der Messmethoden, die Organisation dieses Prozesses und eine ganze Reihe kognitiver Fähigkeiten des Probanden – von der Qualifikation des Experimentators bis hin zu seiner Fähigkeit, die Ergebnisse richtig und kompetent zu interpretieren.

Neben direkten Messungen ist die Methode der indirekten Messung im Prozess wissenschaftlicher Experimente weit verbreitet. Bei der indirekten Messung wird der Sollwert auf der Grundlage direkter Messungen anderer Größen bestimmt, die mit der ersten funktionalen Abhängigkeit verbunden sind. Anhand der gemessenen Werte der Masse und des Volumens des Körpers wird seine Dichte bestimmt; Der spezifische Widerstand eines Leiters kann aus den gemessenen Werten von Widerstand, Länge und Querschnittsfläche des Leiters usw. ermittelt werden. Die Rolle der indirekten Messungen ist besonders groß in den Fällen, in denen eine direkte Messung unter den Bedingungen der objektiven Realität unmöglich ist. Beispielsweise wird die Masse eines beliebigen Weltraumobjekts (natürlich) mithilfe mathematischer Berechnungen bestimmt, die auf der Verwendung von Messdaten anderer physikalischer Größen basieren.

Die Messergebnisse müssen analysiert werden, und dazu ist es oft notwendig, abgeleitete (sekundäre) Indikatoren auf ihrer Grundlage zu bilden, dh die eine oder andere Transformation auf die experimentellen Daten anzuwenden. Der gebräuchlichste abgeleitete Indikator ist die Mittelung von Werten - zum Beispiel Durchschnittsgewicht Personen, durchschnittliche Größe, durchschnittliches Pro-Kopf-Einkommen usw.

Umfrage. Diese empirische Methode wird nur in den Sozial- und Geisteswissenschaften verwendet. Die Erhebungsmethode unterteilt sich in mündliche Befragung und schriftliche Befragung.

Mündliche Befragung (Gespräch, Interview). Die Essenz der Methode geht aus ihrem Namen hervor. Während der Befragung hat der Fragesteller persönlichen Kontakt zum Befragten, das heißt er hat die Möglichkeit zu sehen, wie der Befragte auf eine bestimmte Frage reagiert. Der Beobachter kann bei Bedarf verschiedene zusätzliche Fragen stellen und so zusätzliche Daten zu einigen ungedeckten Themen erhalten.

Mündliche Befragungen liefern konkrete Ergebnisse, mit deren Hilfe man umfassende Antworten auf komplexe Fragestellungen erhält, die den Forscher interessieren. Allerdings Fragen

„kitzeliger“ Natur sind, antworten die Befragten schriftlich viel offener und geben gleichzeitig ausführlichere und gründlichere Antworten.

Der Befragte verbringt weniger Zeit und Energie mit einer mündlichen Antwort als mit einer schriftlichen. Allerdings hat diese Methode auch ihre negative Seiten. Alle Befragten befinden sich in unterschiedlichen Bedingungen, einige von ihnen können zusätzliche Informationen durch Leitfragen des Forschers erhalten; Der Gesichtsausdruck oder jede Geste des Forschers hat eine gewisse Wirkung auf den Befragten.

Für Interviews verwendete Fragen werden im Voraus geplant und ein Fragebogen erstellt, in dem auch Platz für die Aufzeichnung (Aufzeichnung) der Antwort gelassen werden sollte.

Grundvoraussetzungen für das Schreiben von Fragen:

die Erhebung sollte nicht zufällig, sondern systematisch erfolgen; Gleichzeitig werden Fragen, die für den Befragten verständlicher sind, früher gestellt, schwieriger - später;

Fragen sollten prägnant, spezifisch und für alle Befragten verständlich sein;

Fragen sollten nicht widersprechen ethische Standards. Umfrageregeln:

1) während des Interviews sollte der Forscher mit dem Befragten allein sein, ohne fremde Zeugen;

2) jede mündliche Frage wird aus dem Fragebogen (Fragebogen) wörtlich unverändert vorgelesen;

3) hält sich genau an die Reihenfolge der Fragen; der Befragte sollte den Fragebogen nicht sehen oder die Fragen nach der nächsten lesen können;

4) Das Interview sollte kurz sein – 15 bis 30 Minuten, je nach Alter und intellektuellem Niveau der Befragten;

5) Der Interviewer sollte den Befragten in keiner Weise beeinflussen (indirekt zur Antwort auffordern, missbilligend den Kopf schütteln, mit dem Kopf nicken usw.);

6) Der Interviewer kann ggf., wenn diese Antwort nicht eindeutig ist, zusätzlich nur neutrale Fragen stellen (z. B.: „Was meinten Sie damit?“, „Erklären Sie ein bisschen mehr!“).

7) Antworten werden nur während der Umfrage in den Fragebogen aufgenommen.

Die Antworten werden dann analysiert und interpretiert.

Schriftliche Befragung - Befragung. Es basiert auf einem vorgefertigten Fragebogen (Fragebogen), und die Antworten der Befragten (Interviewten) auf alle Positionen des Fragebogens bilden die gewünschte empirische Information.

Die Qualität der empirischen Informationen, die als Ergebnis einer Umfrage gewonnen werden, hängt unter anderem von der Formulierung der Fragen des Fragebogens ab, die für den Befragten verständlich sein sollte; Qualifikation, Erfahrung, Gewissenhaftigkeit, psychologische Eigenschaften der Forscher; die Situation der Erhebung, ihre Bedingungen; der emotionale Zustand der Befragten; Sitten und Gebräuche, Vorstellungen, Alltagssituation; und auch Einstellungen zur Umfrage. Bei der Verwendung solcher Informationen ist daher immer mit der Zwangsläufigkeit subjektiver Verzerrungen aufgrund ihrer spezifischen individuellen „Brechung“ in den Köpfen der Befragten zu rechnen. Und wo wir reden Bei grundsätzlich wichtigen Fragen wenden sie sich neben der Befragung auch anderen Methoden zu - Beobachtung, Experteneinschätzung, Dokumentenanalyse.

Besonderes Augenmerk wird auf die Entwicklung eines Fragebogens gelegt - ein Fragebogen, der eine Reihe von Fragen enthält, die erforderlich sind, um Informationen gemäß den Zielen und Hypothesen der Studie zu erhalten. Der Fragebogen muss die folgenden Anforderungen erfüllen: in Bezug auf den Verwendungszweck angemessen sein, dh die erforderlichen Informationen liefern; über stabile Kriterien und zuverlässige Bewertungsskalen verfügen, die die untersuchte Situation angemessen widerspiegeln; die Formulierung der Fragen sollte für den Befragten klar und konsistent sein; Fragebogenfragen sollten beim Befragten (Befragter) keine negativen Emotionen hervorrufen.

Fragen können geschlossen oder offen gestellt werden. Eine Frage wird als geschlossen bezeichnet, wenn sie einen vollständigen Satz von Antworten im Fragebogen enthält. Der Befragte kreuzt nur die Möglichkeit an, die seiner Meinung entspricht. Diese Form des Fragebogens verkürzt die Ausfüllzeit erheblich und macht den Fragebogen gleichzeitig für die Bearbeitung am Computer geeignet. Aber manchmal ist es notwendig, direkt die Meinung des Befragten zu einer Frage zu erfahren, die vorgefertigte Antworten ausschließt. In diesem Fall werden offene Fragen verwendet.

Bei der Beantwortung einer offenen Frage wird der Befragte nur angeleitet eigene Ideen. Daher ist eine solche Antwort individueller.

Auch die Einhaltung einer Reihe weiterer Anforderungen trägt zur Erhöhung der Zuverlässigkeit der Antworten bei. Eine davon ist, dass dem Befragten die Möglichkeit gegeben werden sollte, der Antwort auszuweichen, eine unsichere Meinung zu äußern. Dazu sollte die Bewertungsskala Antwortmöglichkeiten vorsehen: „es ist schwer zu sagen“, „ich finde es schwierig zu antworten“, „es passiert auf unterschiedliche Weise“, „immer“, etc. Aber das Überwiegen solcher Optionen in den Antworten zeugt entweder von der Inkompetenz des Befragten oder von der Untauglichkeit der Frageformulierung, um die notwendigen Informationen zu erhalten.

Um verlässliche Informationen über das untersuchte Phänomen oder den Prozess zu erhalten, ist es nicht notwendig, das gesamte Kontingent zu befragen, da der Untersuchungsgegenstand zahlenmäßig sehr groß sein kann. In Fällen, in denen der Untersuchungsgegenstand mehrere hundert Personen übersteigt, wird eine selektive Befragung verwendet.

Methode der Sachverständigengutachten. Im Wesentlichen handelt es sich um eine Art Umfrage, die mit der Beteiligung an der Bewertung der untersuchten Phänomene verbunden ist, den Prozessen der kompetentesten Personen, deren Meinungen sich gegenseitig ergänzen und überprüfen und es ermöglichen, das Erforschte ziemlich objektiv zu bewerten. Die Verwendung dieser Methode erfordert eine Reihe von Bedingungen. Zunächst einmal ist es eine sorgfältige Auswahl von Experten – Menschen, die das zu bewertende Gebiet, den Untersuchungsgegenstand gut kennen und zu einer objektiven, unvoreingenommenen Bewertung fähig sind.

Wesentlich ist auch die Wahl eines genauen und bequemen Bewertungssystems und geeigneter Messskalen, die Urteile rationalisieren und es ermöglichen, sie in bestimmten Mengen auszudrücken.

Häufig ist es notwendig, Experten für die Verwendung der vorgeschlagenen Skalen für eine eindeutige Bewertung zu schulen, um Fehler zu minimieren und Bewertungen vergleichbar zu machen.

Geben unabhängig voneinander handelnde Sachverständige durchgängig gleiche oder ähnliche Einschätzungen ab oder äußern sich ähnliche Meinungen, so besteht Grund zu der Annahme, dass sie sich objektiven Einschätzungen annähern. Weichen die Schätzungen stark voneinander ab, deutet dies entweder auf eine missglückte Wahl des Notensystems und der Messskalen oder auf die Inkompetenz von Experten hin.

Varianten der Expertenbewertungsmethode sind: die Kommissionsmethode, die Brainstorming-Methode, die Delphi-Methode, die heuristische Prognosemethode usw.

Testen ist eine empirische Methode, ein diagnostisches Verfahren, das in der Anwendung von Tests besteht (aus dem englischen Test - Aufgabe, Test). Tests werden den Testpersonen normalerweise entweder in Form einer Liste von Fragen gegeben, die kurze und eindeutige Antworten erfordern, oder in Form von Aufgaben, deren Lösung nicht viel Zeit in Anspruch nimmt und auch eindeutige Lösungen erfordert, oder in Form von einige kurzfristige praktische Arbeiten der Probanden, zum Beispiel qualifizierende Probearbeiten in Berufsausbildung, in der Arbeitsökonomie usw. Die Tests sind in Blanko-, Hardware- (z. B. auf einem Computer) und praktische Tests unterteilt. für Einzel- und Gruppennutzung.

Hier sind vielleicht alle empirischen Methoden-Operationen, die der wissenschaftlichen Gemeinschaft heute zur Verfügung stehen. Als nächstes betrachten wir empirische Methoden-Aktionen, die auf der Verwendung von Methoden-Operationen und deren Kombinationen basieren.

2. Empirische Methoden (Methoden-Aktionen).

Empirische Methoden-Aktionen sollten zunächst in zwei Klassen unterteilt werden. Die erste Klasse sind die Methoden zum Studium eines Objekts ohne seine Transformation, wenn der Forscher keine Änderungen oder Transformationen am Studienobjekt vornimmt. Genauer gesagt nimmt es keine wesentlichen Änderungen am Objekt vor – schließlich kann der Forscher (Beobachter) gemäß dem Prinzip der Komplementarität (siehe oben) nicht umhin, das Objekt zu verändern. Nennen wir sie Objektverfolgungsmethoden. Dazu gehören: die Verfolgungsmethode selbst und ihre besonderen Erscheinungsformen - Untersuchung, Überwachung, Studium und Verallgemeinerung von Erfahrungen.

Eine andere Klasse von Methoden ist mit der aktiven Transformation des vom Forscher untersuchten Objekts verbunden - nennen wir diese Methoden Transformationsmethoden - diese Klasse umfasst Methoden wie experimentelle Arbeit und Experiment.

Tracking ist in einer Reihe von Wissenschaften oft vielleicht die einzige empirische Methode-Aktion. Zum Beispiel in der Astronomie. Schließlich können Astronomen die untersuchten Weltraumobjekte noch nicht beeinflussen. Der einzige Weg, ihren Zustand zu verfolgen, ist durch Methoden-Operationen: Beobachtung und Messung. Dasselbe gilt weitgehend für Wissenschaftszweige wie Geographie, Demographie usw., wo der Forscher am Untersuchungsgegenstand nichts ändern kann.

Darüber hinaus wird Tracking auch verwendet, wenn das Ziel darin besteht, die natürliche Funktionsweise eines Objekts zu untersuchen. Beispielsweise bei der Untersuchung bestimmter Merkmale radioaktiver Strahlung oder bei der Untersuchung der Zuverlässigkeit technischer Geräte, die durch ihren langjährigen Betrieb überprüft wird.

Prüfung – wie besonderer Fall Tracking-Methode ist die Untersuchung des Untersuchungsobjekts mit dem einen oder anderen Maß an Tiefe und Detaillierung, je nach den vom Forscher gestellten Aufgaben. Ein Synonym für das Wort „Prüfung“ ist „Inspektion“, was bedeutet, dass die Prüfung im Grunde die anfängliche Untersuchung eines Objekts ist, die durchgeführt wird, um sich mit seinem Zustand, seinen Funktionen, seinem Aufbau usw. vertraut zu machen. Umfragen werden am häufigsten angewendet Organisationsstrukturen– Unternehmen, Institutionen usw. – oder in Bezug auf öffentliche Einrichtungen, z. B. Siedlungen, für die Erhebungen extern und intern sein können.

Externe Erhebungen: Erhebung der soziokulturellen und wirtschaftlichen Situation in der Region, Erhebung des Waren- und Dienstleistungsmarktes und des Arbeitsmarktes, Erhebung des Erwerbsstatus der Bevölkerung etc. Interne Erhebungen: Erhebungen innerhalb des Unternehmens, Institutionen - Zustandserhebung Fertigungsprozess, Erhebungen des Arbeitskräftekontingents etc.

Die Erhebung erfolgt durch die Methoden-Operationen der empirischen Forschung: Beobachtung, Studium und Analyse der Dokumentation, mündliche und schriftliche Befragung, Einbeziehung von Experten etc.

Jede Prüfung wird nach einem im Voraus entwickelten detaillierten Programm durchgeführt, in dem der Inhalt der Arbeit, ihre Werkzeuge (Zusammenstellung von Fragebögen, Testkits, Fragebögen, eine Liste der zu untersuchenden Dokumente usw.) sowie Kriterien enthalten sind zur Beurteilung der zu untersuchenden Phänomene und Prozesse detailliert geplant. Darauf folgen die folgenden Phasen: Sammeln von Informationen, Zusammenfassen von Materialien, Zusammenfassen und Vorbereiten von Berichtsmaterialien. In jeder Phase kann es erforderlich sein, das Umfrageprogramm anzupassen, wenn der Forscher oder eine Gruppe von Forschern, die es durchführen, davon überzeugt sind, dass die gesammelten Daten nicht ausreichen, um die gewünschten Ergebnisse zu erzielen, oder die gesammelten Daten nicht das Bild des Objekts widerspiegeln im Studium usw.

Nach dem Grad der Tiefe, Ausführlichkeit und Systematisierung werden Umfragen unterteilt in:

- Lotsen- (Aufklärungs-)Untersuchungen, die zur vorläufigen, relativ oberirdischen Orientierung im Untersuchungsobjekt durchgeführt werden;

- spezialisierte (Teil-)Erhebungen, die durchgeführt werden, um bestimmte Aspekte, Aspekte des untersuchten Objekts zu untersuchen;

modulare (komplexe) Prüfungen - zum Studium ganzer Blöcke, Fragenkomplexe, die vom Forscher auf der Grundlage einer ausreichend detaillierten Vorstudie des Objekts, seiner Struktur, Funktionen usw. programmiert wurden;

Systemische Befragungen werden bereits als vollwertige eigenständige Studien durchgeführt, die auf der Isolierung und Formulierung ihres Themas, Zwecks, ihrer Hypothese usw. beruhen und eine ganzheitliche Betrachtung des Objekts, seiner systembildenden Faktoren beinhalten.

Auf welcher Ebene jeweils eine Befragung durchgeführt wird, entscheidet der Forschende bzw. das Forschungsteam je nach Ziel und Zweck der wissenschaftlichen Arbeit.

Überwachung. Dies ist eine ständige Überwachung, eine regelmäßige Überwachung des Zustands des Objekts und der Werte seiner einzelnen Parameter, um die Dynamik laufender Prozesse zu untersuchen, bestimmte Ereignisse vorherzusagen und auch unerwünschte Phänomene zu verhindern. Zum Beispiel Umweltüberwachung, synoptische Überwachung usw.

Studium und Verallgemeinerung der Erfahrung (Aktivität). Bei der Durchführung von Forschung wird das Studium und die Verallgemeinerung von Erfahrungen (organisatorisch, industriell, technologisch, medizinisch, pädagogisch usw.) für verschiedene Zwecke verwendet: um den vorhandenen Detaillierungsgrad von Unternehmen, Organisationen, Institutionen und das Funktionieren des technologischen Prozesses zu bestimmen , um Mängel und Engpässe in der Praxis eines bestimmten Tätigkeitsbereichs zu ermitteln, die Wirksamkeit der Anwendung wissenschaftlicher Empfehlungen zu untersuchen, neue Tätigkeitsmodelle zu identifizieren, die bei der kreativen Suche nach fortgeschrittenen Führungskräften, Spezialisten und ganzen Teams entstehen. Das Studienobjekt kann sein: Massenerfahrung - um die wichtigsten Trends in der Entwicklung eines bestimmten Sektors der Volkswirtschaft zu identifizieren; negative Erfahrung - um typische Mängel und Engpässe zu identifizieren; Fortgeschrittene Erfahrungen, in deren Verlauf neue positive Erkenntnisse identifiziert und verallgemeinert werden, werden Eigentum von Wissenschaft und Praxis.

Das Studium und die Verallgemeinerung von Best Practices ist eine der Hauptquellen für die Entwicklung der Wissenschaft, da diese Methode es ermöglicht, dringende wissenschaftliche Probleme zu identifizieren und die Grundlage für die Untersuchung der Muster der Entwicklung von Prozessen in einer Reihe von Bereichen der wissenschaftlichen Erkenntnis zu schaffen , vor allem in den sogenannten Technikwissenschaften.

Der Nachteil der Tracking-Methode und ihrer Varianten ist:

- Erhebung, Überwachung, Untersuchung und Verallgemeinerung von Erfahrungen als empirische Methoden-Aktionen - ist relativ passive Rolle Forscher - er kann nur das untersuchen, verfolgen und verallgemeinern, was sich in der umgebenden Realität entwickelt hat, ohne aktiv auf die laufenden Prozesse einwirken zu können. Wir betonen noch einmal, dass dieser Mangel häufig auf objektive Umstände zurückzuführen ist. Dieser Mangel wird Objekttransformationsmethoden vorenthalten: experimentelle Arbeit und Experiment.

Zu den Methoden, die den Untersuchungsgegenstand transformieren, gehören experimentelles Arbeiten und Experiment. Der Unterschied zwischen ihnen liegt im Grad der Willkür des Handelns des Forschers. Handelt es sich bei der experimentellen Arbeit um ein nicht-strenges Forschungsverfahren, bei dem der Forscher nach eigenem Ermessen und aus eigenen Zweckmäßigkeitserwägungen Änderungen am Gegenstand vornimmt, dann ist das Experiment ein völlig strenges Verfahren, bei dem der Forscher strikt die Anforderungen des Experiments.

Experimentelles Arbeiten ist, wie bereits erwähnt, eine Methode, mit einer gewissen Willkür gezielte Veränderungen am Untersuchungsgegenstand vorzunehmen. Der Geologe bestimmt also selbst, wo er suchen soll, wonach er suchen soll, mit welchen Methoden - um Brunnen zu bohren, Gruben zu graben usw. Auf die gleiche Weise bestimmt ein Archäologe, Paläontologe, wo und wie ausgegraben werden soll. Oder in der Pharmazie wird lange nach neuen Medikamenten gesucht - von 10.000 synthetisierten Verbindungen wird nur eine zum Medikament. Oder zum Beispiel erfahrene Arbeit in der Landwirtschaft.

Experimentelles Arbeiten als Forschungsmethode wird in den Wissenschaften im Zusammenhang mit menschlichen Aktivitäten - Pädagogik, Ökonomie usw. - weit verbreitet und verschiedene Autorentechniken werden getestet. Oder es werden ein Versuchsbuch, eine Versuchsvorbereitung, ein Prototyp erstellt und dann in der Praxis erprobt.

Experimentelles Arbeiten ähnelt in gewisser Weise einem Gedankenexperiment – ​​hier und dort wird sozusagen die Frage gestellt: „Was passiert, wenn ...?“ Nur beim mentalen Experiment wird die Situation „im Kopf“ durchgespielt, während bei der experimentellen Arbeit die Situation durch Handeln durchgespielt wird.

Experimentelles Arbeiten ist aber keine blinde, chaotische Suche durch „Versuch und Irrtum“.

Experimentelles Arbeiten wird unter folgenden Bedingungen zu einer Methode wissenschaftlicher Forschung:

  1. Wenn es auf der Grundlage von Daten aufgestellt wird, die von der Wissenschaft gemäß einer theoretisch begründeten Hypothese gewonnen wurden.
  2. Wenn es von einer tiefen Analyse begleitet wird, werden Schlussfolgerungen daraus gezogen und theoretische Verallgemeinerungen erstellt.

In der experimentellen Arbeit werden alle Methoden-Operationen der empirischen Forschung verwendet: Beobachtung, Messung, Analyse von Dokumenten, Peer-Review usw.

Die experimentelle Arbeit nimmt gleichsam einen Zwischenplatz zwischen Objektverfolgung und Experiment ein.

Es ist eine Möglichkeit des aktiven Eingreifens des Forschers in das Objekt. Experimentelle Arbeiten liefern jedoch insbesondere nur die Ergebnisse der Wirksamkeit oder Ineffizienz bestimmter Innovationen in allgemeiner, zusammenfassender Form. Welche der Faktoren der umgesetzten Innovationen stärker wirken, welche weniger, wie sie sich gegenseitig beeinflussen – experimentelle Arbeiten können diese Fragen nicht beantworten.

Für eine tiefere Untersuchung des Wesens eines bestimmten Phänomens, der darin auftretenden Veränderungen und der Gründe für diese Veränderungen greifen sie im Forschungsprozess darauf zurück, die Bedingungen für das Auftreten von Phänomenen und Prozessen und die sie beeinflussenden Faktoren zu variieren. Das Experiment dient diesem Zweck.

Ein Experiment ist eine allgemeine empirische Forschungsmethode (Method-Action), deren Kern darin besteht, dass Phänomene und Prozesse unter streng kontrollierten und kontrollierten Bedingungen untersucht werden. Das Grundprinzip jedes Experiments ist eine Änderung in jedem Forschungsverfahren von nur einem von einigen Faktoren, während der Rest unverändert und kontrollierbar bleibt. Wenn es notwendig ist, den Einfluss eines anderen Faktors zu überprüfen, wird das folgende Untersuchungsverfahren durchgeführt, bei dem dieser letzte Faktor und alle anderen geändert werden kontrollierte Faktoren unverändert bleiben usw.

Während des Experiments ändert der Forscher absichtlich den Verlauf eines Phänomens, indem er einen neuen Faktor hinzufügt. Der neue Faktor, der vom Experimentator eingeführt oder geändert wird, wird als experimenteller Faktor oder unabhängige Variable bezeichnet. Faktoren, die sich unter dem Einfluss der unabhängigen Variablen geändert haben, werden als abhängige Variablen bezeichnet.

In der Literatur gibt es viele Klassifikationen von Experimenten. Zunächst ist es üblich, je nach Art des zu untersuchenden Objekts zwischen physikalischen, chemischen, biologischen, psychologischen usw. Experimenten zu unterscheiden. Entsprechend dem Hauptziel werden Experimente in Verifizierung (empirische Überprüfung einer bestimmten Hypothese) und Suche (Sammlung der notwendigen empirischen Informationen zum Aufbau oder zur Verfeinerung der vorgebrachten Vermutung, Idee) unterteilt. Je nach Art und Vielfalt der Mittel und Bedingungen des Experiments und der Methoden des Einsatzes dieser Mittel kann man unterscheiden zwischen direkt (wenn die Mittel direkt zur Untersuchung des Objekts verwendet werden), Modell (wenn ein Modell verwendet wird, das das ersetzt Objekt), Feld (unter natürlichen Bedingungen, z. B. im Weltraum), Labor (unter künstlichen Bedingungen) Experiment.

Schließlich kann man aufgrund der unterschiedlichen Ergebnisse des Experiments von qualitativen und quantitativen Experimenten sprechen. Qualitative Experimente werden in der Regel durchgeführt, um den Einfluss bestimmter Faktoren auf den untersuchten Prozess zu identifizieren, ohne einen genauen quantitativen Zusammenhang zwischen charakteristischen Größen herzustellen. Um den genauen Wert der wesentlichen Parameter sicherzustellen, die das Verhalten des untersuchten Objekts beeinflussen, ist ein quantitatives Experiment erforderlich.

Abhängig von der Art der experimentellen Forschungsstrategie gibt es:

1) Experimente, die nach der Methode "Versuch und Irrtum" durchgeführt werden;

2) Experimente basierend auf einem geschlossenen Algorithmus;

3) Experimente mit der "Black Box"-Methode, die zu Schlussfolgerungen von der Kenntnis der Funktion zur Kenntnis der Struktur des Objekts führen;

4) Experimente mit Hilfe einer „offenen Kiste“, die es erlauben, ausgehend von Kenntnis der Struktur, ein Muster mit vorgegebenen Funktionen zu erstellen.

In den letzten Jahren haben sich Experimente verbreitet, bei denen der Computer als Erkenntnismittel fungiert. Sie sind besonders wichtig, wenn reale Systeme weder ein direktes Experiment noch ein Experiment mit Hilfe von Materialmodellen zulassen. In einigen Fällen vereinfachen Computerexperimente den Forschungsprozess erheblich - mit ihrer Hilfe werden Situationen „durchgespielt“, indem ein Modell des untersuchten Systems erstellt wird.

Wenn man vom Experiment als Erkenntnismethode spricht, kann man nicht umhin, eine weitere Art des Experimentierens zu erwähnen, die in der naturwissenschaftlichen Forschung eine wichtige Rolle spielt. Dies ist ein Gedankenexperiment – ​​der Forscher operiert nicht mit konkretem, sinnlichem Material, sondern mit einem ideellen, modellhaften Bild. Alle im Rahmen des mentalen Experimentierens gewonnenen Erkenntnisse unterliegen der praktischen Überprüfung, insbesondere in einem realen Experiment. Daher ist diese Art des Experimentierens den Methoden der theoretischen Erkenntnis zuzuordnen (so). PV Kopnin schreibt zum Beispiel: Wissenschaftliche Forschung wirklich experimentell ist sie nur dann, wenn die Schlussfolgerung nicht aus spekulativem Denken, sondern aus sinnlicher, praktischer Beobachtung von Phänomenen gezogen wird. Daher ist das, was manchmal als theoretisches oder Gedankenexperiment bezeichnet wird, eigentlich kein Experiment. Ein Gedankenexperiment ist gewöhnliches theoretisches Denken, das die äußere Form eines Experiments annimmt.

ZU theoretische Methoden wissenschaftliche Erkenntnisse sollten auch einige andere Arten von Experimenten umfassen, zum Beispiel die sogenannten mathematischen und Simulationsexperimente. "Das Wesen der Methode des mathematischen Experiments besteht darin, dass Experimente nicht mit dem Objekt selbst durchgeführt werden, wie es bei der klassischen experimentellen Methode der Fall ist, sondern mit seiner Beschreibung in der Sprache des entsprechenden Abschnitts der Mathematik" . Ein Simulationsexperiment ist eine idealisierte Studie, bei der das Verhalten eines Objekts simuliert wird, anstatt tatsächlich zu experimentieren. Mit anderen Worten handelt es sich bei solchen Experimenten um Varianten eines Modellversuchs mit idealisierten Bildern. Weitere Einzelheiten über mathematische Modellierung und Simulationsexperimente werden weiter unten im dritten Kapitel erörtert.

Wir haben also versucht, die Forschungsmethoden von den allgemeinsten Standpunkten aus zu beschreiben. Natürlich haben sich in jedem Wissenschaftszweig gewisse Traditionen in der Interpretation und Anwendung von Forschungsmethoden entwickelt. Daher bezieht sich die Methode der Häufigkeitsanalyse in der Linguistik auf die Verfolgungsmethode (Methodenaktion), die von den Methodenoperationen der Dokumentenanalyse und -messung durchgeführt wird. Experimente werden üblicherweise in Ermittlung, Training, Kontrolle und Vergleich unterteilt. Aber sie alle sind Experimente (Methoden-Aktionen), die von Methoden-Operationen durchgeführt werden: Beobachtungen, Messungen, Tests usw.

Zu den Methoden der empirischen Forschung in Wissenschaft und Technik gehören unter anderem Beobachtung, Vergleich, Messung und Experiment.

Überwachung . Unter Beobachtung versteht man die systematische und zielgerichtete Wahrnehmung eines uns interessierenden Objekts: Dinge, Phänomene, Eigenschaften, Zustände von etwas. Dies ist die einfachste Methode, die in der Regel als Teil anderer empirischer Methoden fungiert, obwohl sie in einer Reihe von Wissenschaften auch unabhängig oder in der Rolle der Hauptwissenschaft ist, wie in der Wetterbeobachtung, in der beobachtenden Astronomie usw. Die Erfindung des Teleskops ermöglichte es dem Menschen, die Beobachtung auf zuvor unzugängliche Bereiche der Megawelt auszudehnen, die Schaffung des Mikroskops markierte die Invasion der Mikrowelt. Röntgengeräte, Radar, Ultraschallgenerator und viele andere technische Beobachtungsmittel haben zu einer beispiellosen Steigerung des wissenschaftlichen und praktischen Wertes dieser Forschungsmethode geführt. Auch in Psychologie, Medizin, Sport und Sport gibt es Wege und Methoden der Selbstbeobachtung und Selbstkontrolle. Der eigentliche Begriff der Beobachtung in der Erkenntnistheorie erscheint allgemein in Form des Begriffs der Kontemplation, er wird mit den Kategorien der Aktivität und Aktivität des Subjekts verbunden.

Um fruchtbar und produktiv zu sein, muss die Beobachtung die folgenden Anforderungen erfüllen.

Sei absichtlich, d. h. zur Lösung ganz bestimmter Probleme im Rahmen des allgemeinen Ziels wissenschaftlicher Tätigkeit und Ingenieurpraxis durchzuführen.

Sei systematisch, d. h. bestehen aus Beobachtungen, die einem bestimmten Plan, Schema folgen, das sich aus der Art des Objekts sowie den Zielen und Zielen der Studie ergibt.

Sei zielgerichtet, d.h. die Aufmerksamkeit des Beobachters nur auf die ihn interessierenden Objekte zu richten und nicht auf diejenigen zu verweilen, die außerhalb der Aufgaben der Beobachtung liegen. Die Beobachtung, die auf die Wahrnehmung einzelner Details, Seiten, Aspekte, Teile eines Objekts abzielt, wird als Fixieren bezeichnet, und das Abdecken des Ganzen bei wiederholter Beobachtung als Schwanken. Die Kombination dieser Beobachtungsarten ergibt am Ende ein vollständiges Bild des Objekts.

Sei aktiv d.h. solche, wenn der Beobachter gezielt die für seine Aufgaben notwendigen Gegenstände aus einer bestimmten Menge von ihnen heraussucht, einzelne ihn interessierende Aspekte, Eigenschaften, Aspekte dieser Gegenstände betrachtet und sich dabei auf den Vorrat seines eigenen Wissens, seiner Erfahrung stützt und Fähigkeiten.

Sei systematisch d.h. solche, wenn der Beobachter seine Beobachtung kontinuierlich und nicht zufällig und sporadisch nach einem bestimmten, vorher ausgedachten Schema unter verschiedenen oder streng festgelegten Bedingungen durchführt.

Vergleich - Dies ist eine der häufigsten und universellsten Erkenntnismethoden. Der bekannte Aphorismus „Alles ist bekannt im Vergleich“ ist dafür der beste Beweis. Vergleich ist die Feststellung von Ähnlichkeiten und Unterschieden zwischen Objekten und Phänomenen verschiedener Art, ihren Seiten und Aspekten im Allgemeinen - den Untersuchungsobjekten. Als Ergebnis des Vergleichs wird etwas Gemeinsames festgestellt, das zwei oder mehr Objekten innewohnt – zu einem bestimmten Zeitpunkt oder in ihrer Geschichte. In den Wissenschaften historischer Natur wurde der Vergleich auf die Ebene der Hauptforschungsmethode entwickelt, die als vergleichende historische bezeichnet wurde. Das Offenbaren des Allgemeinen, das Wiederholen in Phänomenen, ist ein Schritt auf dem Weg zur Erkenntnis des Natürlichen.

Damit ein Vergleich fruchtbar ist, muss er zwei grundlegende Anforderungen erfüllen: Es sollten nur solche Aspekte und Aspekte, Objekte als Ganzes verglichen werden, zwischen denen eine objektive Gemeinsamkeit besteht; Der Vergleich sollte auf den wichtigsten Merkmalen basieren, die für eine bestimmte Forschungs- oder andere Aufgabe wesentlich sind. Ein Vergleich aus unwesentlichen Gründen kann nur zu Missverständnissen und Irrtümern führen. In diesem Zusammenhang müssen wir mit den Schlussfolgerungen "durch Analogie" vorsichtig sein. Die Franzosen sagen sogar, dass „Vergleiche kein Beweis sind!“.

Objekte, die für einen Forscher, Ingenieur oder Designer von Interesse sind, können entweder direkt oder indirekt über ein drittes Objekt verglichen werden. Im ersten Fall erhalten sie qualitative Bewertungen: mehr - weniger, heller - dunkler, höher - niedriger, näher - weiter usw. Zwar können Sie auch hier die einfachsten quantitativen Merkmale erhalten: "doppelt so hoch", "doppelt so schwer". Zeiten usw. Wenn es noch ein drittes Objekt in der Rolle eines Standards, Maßes, Maßstabs gibt, dann erhalten sie besonders wertvolle und genauere quantitative Eigenschaften.

Messung historisch aus Beobachtung und Vergleich entstanden. Im Gegensatz zu einem einfachen Vergleich ist es jedoch effizienter und genauer. Die moderne Naturwissenschaft, initiiert von Leonardo da Vinci, Galileo Galilei und Isaac Newton, verdankt ihre Blüte dem Einsatz von Messungen. Es war Galileo, der das Prinzip einer quantitativen Herangehensweise an Phänomene proklamierte, wonach die Beschreibung physikalischer Phänomene auf Größen beruhen sollte, die ein quantitatives Maß haben - Zahl. Er glaubte, dass das Buch der Natur in der Sprache der Mathematik geschrieben wurde. Engineering, Design und Konstruktion gehen in ihren Methoden in die gleiche Richtung.

Die Messung ist ein Verfahren zur Bestimmung des numerischen Werts einer Eigenschaft eines Objekts durch Vergleich mit einer Maßeinheit, die von einem bestimmten Forscher oder von allen Wissenschaftlern und Praktikern als Standard akzeptiert wird. Wie Sie wissen, gibt es internationale und nationale Einheiten zur Messung der Hauptmerkmale verschiedener Klassen von Objekten, wie Stunde, Meter, Gramm, Volt, Bit usw.; Tag, Pood, Pound, Werst, Meile usw. Die Messung impliziert das Vorhandensein der folgenden Grundelemente: das Messobjekt, die Messeinheit, d. h. Maßstab, Maß, Standard; Messgerät; Messmethode; Beobachter.

Die Messungen sind entweder direkt oder indirekt. Bei der direkten Messung wird das Ergebnis direkt aus dem Messvorgang selbst gewonnen (z. B. über Längen-, Zeit-, Gewichtsmaße etc.). Bei der indirekten Messung wird der erforderliche Wert rechnerisch auf der Grundlage anderer zuvor durch direkte Messung gewonnener Werte ermittelt. So erhalten Sie beispielsweise das spezifische Gewicht, die Fläche und das Volumen von Körpern korrekte Form, Geschwindigkeit und Beschleunigung des Körpers, Kraft usw.

Die Messung erlaubt es, empirische Gesetze und fundamentale Weltkonstanten zu finden und zu formulieren. Insofern kann es als Quelle für die Bildung sogar ganzer wissenschaftlicher Theorien dienen. So ermöglichten Tycho Brahes Langzeitmessungen der Planetenbewegungen später Johannes Kepler Verallgemeinerungen in Form der bekannten drei empirischen Gesetze der Planetenbewegung. Die Messung von Atomgewichten in der Chemie war eine der Grundlagen für Dmitri Mendeleevs Formulierung seines berühmten Periodengesetzes in der Chemie usw. Die Messung liefert nicht nur genaue quantitative Informationen über die Realität, sondern ermöglicht auch die Einführung neuer qualitativer Überlegungen in die Theorie. Dies geschah schließlich mit der Messung der Lichtgeschwindigkeit im Michelson-Morley-Experiment zur Erstellung von Einsteins Relativitätstheorie. Die Beispiele gehen weiter.

Der wichtigste Indikator für den Wert einer Messung ist ihre Genauigkeit.

Die Genauigkeit der Messungen hängt von den verfügbaren Instrumenten, ihren Fähigkeiten und ihrer Qualität, von den verwendeten Methoden und der Ausbildung des Forschers selbst ab. Beachten Sie, dass es bestimmte Anforderungen an die Genauigkeit gibt. Sie muss der Beschaffenheit der Gegenstände und den Anforderungen der Erkenntnis-, Gestaltungs-, Ingenieur- oder Ingenieuraufgabe entsprechen. So beschäftigt man sich im Ingenieur- und Bauwesen ständig mit dem Messen von Masse, Länge usw. Aber in den meisten Fällen ist hier keine absolute Genauigkeit erforderlich, außerdem würde es im Allgemeinen lächerlich aussehen, wenn beispielsweise das Gewicht einer tragenden Säule für ein Gebäude auf tausendstel Gramm geprüft. Es gibt auch das Problem, massives Material zu messen, das mit zufälligen Abweichungen verbunden ist, wie es bei großen Populationen der Fall ist. Solche Phänomene sind typisch für Objekte der Mikrowelt, für biologische, soziale, wirtschaftliche und andere ähnliche Objekte. Hier sind Suchen nach dem statistischen Mittelwert und speziell auf die Verarbeitung des Zufalls und seiner Verteilungen ausgerichtete Methoden in Form von probabilistischen Verfahren anwendbar. Um zufällige und systematische Messfehler zu eliminieren, Fehler und Fehler zu identifizieren, die mit der Natur der Instrumente und dem Beobachter selbst zusammenhängen, wurde eine spezielle mathematische Fehlertheorie entwickelt.

Im Zusammenhang mit der Entwicklung der Technik erlangten im 20. Jahrhundert Messverfahren unter Bedingungen schneller Prozesse in aggressiver Umgebung, bei denen die Anwesenheit eines Beobachters ausgeschlossen ist, besondere Bedeutung. Abhilfe schafften hier die Methoden der Auto- und Elektrometrie sowie die Computerverarbeitung von Informationen und die Steuerung von Messvorgängen. Eine herausragende Rolle bei ihrer Entstehung spielten die Entwicklungen von Wissenschaftlern des Nowosibirsker Instituts für Automatisierung und Elektrometrie der Sibirischen Abteilung der Russischen Akademie der Wissenschaften sowie der NNSTU. Das waren Weltklasseergebnisse.

Die Messung wird zusammen mit der Beobachtung und dem Vergleich auf der empirischen Ebene der Erkenntnis und der menschlichen Aktivität im Allgemeinen weit verbreitet und ist Teil der am weitesten entwickelten, komplexesten und bedeutendsten Methode - der experimentellen.

Experiment . Unter einem Experiment versteht man eine solche Methode des Studiums und der Transformation von Objekten, wenn der Forscher sie aktiv beeinflusst, indem er künstliche Bedingungen schafft, die erforderlich sind, um Eigenschaften, Merkmale, Aspekte, die ihn interessieren, zu identifizieren, den Verlauf natürlicher Prozesse bewusst zu ändern, während er reguliert und misst und beobachten. Die Hauptmittel zur Schaffung solcher Bedingungen sind eine Vielzahl von Geräten und künstlichen Geräten. Das Experiment ist die komplexeste, umfassendste und effektivste Methode der empirischen Erkenntnis und Transformation von Objekten verschiedener Art. Aber ihr Wesen liegt nicht in der Komplexität, sondern in der Zielstrebigkeit, Vorsätzlichkeit und Intervention durch Regulierung und Kontrolle während der untersuchten und transformierten Prozesse und Zustände von Objekten.

Die Unterscheidungsmerkmale des Experiments sind die Möglichkeit, ein Objekt in einer relativ reinen Form zu untersuchen und zu transformieren, wenn alle Nebenfaktoren, die das Wesen der Sache verdecken, fast vollständig eliminiert werden. Dies ermöglicht es, die Objekte der Realität in zu studieren extreme Bedingungen, d.h. bei ultratiefen und ultrahohen Temperaturen, Drücken und Energien, Prozessraten, elektrischen und magnetischen Feldstärken, Wechselwirkungsenergien. Unter diesen Bedingungen ist es möglich, unerwartete und überraschende Eigenschaften gewöhnlicher Objekte aufzudecken und so tiefer in ihr Wesen und ihre Transformationsmechanismen einzudringen.

Beispiele für Phänomene, die unter extremen Bedingungen entdeckt wurden, sind Suprafluidität und Supraleitung bei niedrigen Temperaturen. Der wichtigste Vorteil des Experiments war seine Wiederholbarkeit, wenn Beobachtungen, Messungen, Tests der Eigenschaften von Objekten wiederholt unter wechselnden Bedingungen durchgeführt werden, um die Genauigkeit, Zuverlässigkeit und praktische Bedeutung der zuvor erhaltenen Ergebnisse zu erhöhen, um sicherzustellen, dass a neues Phänomen existiert im Allgemeinen.

Ein Experiment wird in folgenden Situationen verwendet: Beim Versuch, bisher unbekannte Eigenschaften und Merkmale eines Objekts zu erkennen, handelt es sich um ein Forschungsexperiment; wenn sie die Richtigkeit bestimmter theoretischer Positionen, Schlussfolgerungen und Hypothesen überprüfen - ein Testexperiment für die Theorie; wenn die Korrektheit früher durchgeführter Experimente überprüft wird - ein Testexperiment für Empirie; pädagogisches Demonstrationsexperiment.

Beobachtungen, Messungen und Experimente basieren hauptsächlich auf verschiedenen Instrumenten. Was ist Gerät hinsichtlich seiner Rolle für die Forschung? Im weiteren Sinne werden Geräte als künstliche, technische Mittel und verschiedene Arten von Geräten verstanden, die es uns ermöglichen, jedes Phänomen, jede Eigenschaft, jeden Zustand, jede Eigenschaft, die uns interessiert, von einer quantitativen Seite aus zu untersuchen und streng definierte Bedingungen für ihre Entdeckung zu schaffen , Umsetzung und Regulierung; Geräte, mit denen gleichzeitig beobachtet und gemessen werden kann.

Ebenso wichtig ist es, ein Referenzsystem zu wählen, um es speziell im Gerät anzulegen. Unter Bezugssysteme Objekte verstehen, die mental als anfänglich, grundlegend und körperlich ruhend, bewegungslos aufgenommen werden. Dies zeigt sich deutlich in Messungen, die unter Verwendung unterschiedlicher Ableseskalen durchgeführt wurden. Zum Beispiel bei astronomischen Beobachtungen - das ist die Erde, die Sonne, bedingt Fixsterne. „Labor“ nennen die Physiker den Bezugsrahmen, der mit dem Beobachtungs- und Messort zusammenfällt. Im Gerät selbst ist das Referenzsystem ein wichtiger Bestandteil der Messeinrichtung, ein auf der Skala bedingt graduiertes Messlineal, an dem der Betrachter beispielsweise die Abweichung eines Pfeils oder eines Lichtsignals vom Skalenanfang festlegt. Bei digitalen Maßsystemen haben wir aufgrund der Kenntnis der Merkmale der hier verwendeten abzählbaren Maßeinheiten noch einen dem Betrachter bekannten Bezugspunkt. Einfache und übersichtliche Skalen gibt es für Lineale, Uhren mit Zifferblatt, die meisten Stromzähler und Thermometer.

Die Schaffung von Geräten und die Erfindung neuer Geräte, sowohl für Messungen als auch für Experimente, ist seit langem ein besonderes Betätigungsfeld für Wissenschaftler und Ingenieure, das große Erfahrung und Talent erfordert. Heute ist es auch ein moderner, sich immer aktiver entwickelnder Zweig der Produktion, des Handels und des damit verbundenen Marketings. Instrumente und Geräte selbst als Produkte der Technologie, wissenschaftliche und technische Instrumente, ihre Qualität und Quantität sind in der Tat ein Indikator für den Entwicklungsstand eines bestimmten Landes und seiner Wirtschaft.


Spitze