Domain naii.de kaufen?

Produkte und Fragen zum Begriff Validität:


  • Hensel-Börner, Susanne: Validität computergestützter hybrider Conjoint-Analysen
    Hensel-Börner, Susanne: Validität computergestützter hybrider Conjoint-Analysen

    Validität computergestützter hybrider Conjoint-Analysen , Bücher > Bücher & Zeitschriften

    Preis: 54.99 € | Versand*: 0 €
  • Mbwilo, Eva: Zuverlässigkeit und Validität der histologischen Diagnose des Rhabdomyosarkoms
    Mbwilo, Eva: Zuverlässigkeit und Validität der histologischen Diagnose des Rhabdomyosarkoms

    Zuverlässigkeit und Validität der histologischen Diagnose des Rhabdomyosarkoms , Bücher > Bücher & Zeitschriften

    Preis: 26.90 € | Versand*: 0 €
  • Faria Salles, Sérgio Augusto: Validität von Fragebogenitems: Bewertung von Supermärkten
    Faria Salles, Sérgio Augusto: Validität von Fragebogenitems: Bewertung von Supermärkten

    Validität von Fragebogenitems: Bewertung von Supermärkten , Dieses Buch konzentriert sich auf die Analyse der Gültigkeit von Fragebogenitems zur Bewertung von Supermärkten aus der Sicht ihrer Kunden. Für die Erstellung eines Fragebogens wurden vierundzwanzig Bewertungselemente im Zusammenhang mit Supermarktdienstleistungen ausgewählt, die von den Kunden der untersuchten Einrichtungen beantwortet wurden, wobei jedes Element als wesentlich, wichtig, aber nicht wesentlich oder nicht wesentlich bewertet wurde. Durch die Anwendung der Lawshe-Methode war es möglich, Items je nach Wahrnehmung der Befragten zu validieren oder aus dem Fragebogen auszuschließen. , Schallplatten > Musik

    Preis: 35.90 € | Versand*: 0 €
  • Schlick, Leonie: Validität der Organisationsaufstellung als Ergänzung zur Assessment-Center-Methode
    Schlick, Leonie: Validität der Organisationsaufstellung als Ergänzung zur Assessment-Center-Methode

    Bachelorarbeit aus dem Jahr 2013 im Fachbereich Psychologie - Arbeit, Betrieb, Organisation, Note: 1,3, Nordakademie Hochschule der Wirtschaft in Elmshorn, Veranstaltung: Wirtschaftspsychologie, Sprache: Deutsch, Abstract: Diese Arbeit widmet sich der Personalauswahl in großen Unternehmen und untersucht, welche Anforderungsmerkmale eines Bewerbers ein Assessment-Center apprüft, welche es vernachlässigt und ob die aus dem therapeutischen Bereich stammende Organisationsaufstellung diese ergänzend überprüfen kann. Anhand von Experteninterviews wird die Hypothese, dass die Organisationsaufstellung das Assessment-Center hinsichtlich der Team- und Organisationspassung ergänzen kann, überprüft. Es wird die aus der qualitativen Sozialforschung stammende Methode "leitfadengestütztes Experteninterview" zur Validierung verwendet. Entsprechend wird detailliert der Aufbau eines Leitfadens sowie eine Volltranskript-Auswertung nach Meuser und Nagel beschrieben. , Studium & Erwachsenenbildung > Fachbücher, Lernen & Nachschlagen

    Preis: 52.95 € | Versand*: 0 €
  • Anonymous: Die prädiktive Validität der Big-5-Faktoren in Bezug auf Berufserfolg
    Anonymous: Die prädiktive Validität der Big-5-Faktoren in Bezug auf Berufserfolg

    Die prädiktive Validität der Big-5-Faktoren in Bezug auf Berufserfolg , Studienarbeit aus dem Jahr 2014 im Fachbereich Psychologie - Arbeit, Betrieb, Organisation, Note: 1.0, Technische Universität Dresden, Sprache: Deutsch, Abstract: Diese Hausarbeit beschäftigt sich mit der Frage, welche Persönlichkeitseigenschaften als Prädikatoren für Berufserfolg genutzt werden können und wie sie zu bewerten sind. Ob wir es wollen oder nicht, der Beruf nimmt einen zentralen Stellenwert in unserem Leben ein. Neben der wirtschaftlichen Bedeutung ermöglicht die Ausübung eines Berufs auch eine ideelle Erfüllung. Ein Großteil des Lebens wird in einem beruflichen Kontext ablaufen und deshalb ist es vielen Menschen von hoher Priorität in dieser Zeit auch erfolgreich und zufrieden zu sein. Somit ist die Prognose von Berufserfolg von wichtiger Bedeutung, denn der Berufserfolg seinerseits ist ein Prädiktor für Wohlbefinden im Sinne der allgemeinen Lebenszufriedenheit oder verschiedener Bereichszufriedenheiten. Bei fehlendem Berufserfolg treten negative Ereignisse ein, wie Demotivierung, Leistungsabfall bis hin zu psychosomatischen Beschwerden. Auf der anderen Seite ist Berufserfolg von Angestellten ein zentraler Punkt für Unternehmen und Organisationen. Der Berufserfolg von den Angestellten zahlt sich für den Arbeitgeber in Form von besserer Leistung, Arbeitsmotivation und organisationaler Bindung aus. Das Unternehmen hat somit auch ein starkes Interesse geeignete Bewerber auszuwählen und Angestellte weiter zu fördern, denn die Leistungsstärksten eines Unternehmens haben eine doppelt so hohe Leistung wie der Leistungsschwächste. , Studium & Erwachsenenbildung > Fachbücher, Lernen & Nachschlagen

    Preis: 15.95 € | Versand*: 0 €
  • Stockinger, Johannes: Der Einsatz von Personalauswahlinstrumenten in der Praxis. Analyse der Validität
    Stockinger, Johannes: Der Einsatz von Personalauswahlinstrumenten in der Praxis. Analyse der Validität

    Der Einsatz von Personalauswahlinstrumenten in der Praxis. Analyse der Validität , Schule & Ausbildung > Fachbücher, Lernen & Nachschlagen

    Preis: 18.95 € | Versand*: 0 €
  • Anonym: Prüfungsangst in der Schule. Die Validität des schulischen Bewertungssystems unter der Prüfungsangst
    Anonym: Prüfungsangst in der Schule. Die Validität des schulischen Bewertungssystems unter der Prüfungsangst

    Prüfungsangst in der Schule. Die Validität des schulischen Bewertungssystems unter der Prüfungsangst , Bücher > Bücher & Zeitschriften

    Preis: 15.95 € | Versand*: 0 €
  • Gormanns, Lisa-Marie: Die Online-Inhaltsanalyse. Besonderheiten, Herausforderungen und Auswirkungen auf die Gütekriterien Objektivität, Reliabilität und Validität
    Gormanns, Lisa-Marie: Die Online-Inhaltsanalyse. Besonderheiten, Herausforderungen und Auswirkungen auf die Gütekriterien Objektivität, Reliabilität und Validität

    Die Online-Inhaltsanalyse. Besonderheiten, Herausforderungen und Auswirkungen auf die Gütekriterien Objektivität, Reliabilität und Validität , Bücher > Bücher & Zeitschriften

    Preis: 17.95 € | Versand*: 0 €
  • Starke, Markus: Das Assessment-Center als Instrument der Personalauswahl bei Führungskräften des Pflegedienstes im Krankenhaus. Validität und Nutzen
    Starke, Markus: Das Assessment-Center als Instrument der Personalauswahl bei Führungskräften des Pflegedienstes im Krankenhaus. Validität und Nutzen

    Das Assessment-Center als Instrument der Personalauswahl bei Führungskräften des Pflegedienstes im Krankenhaus. Validität und Nutzen , Bücher > Bücher & Zeitschriften

    Preis: 32.95 € | Versand*: 0 €
  • Bachelorarbeit aus dem Jahr 2003 im Fachbereich Pädagogik - Heilpädagogik, Sonderpädagogik, Note: 1,3, FernUniversität Hagen (Institut für Erziehungswissenschaft und Bildungsforschung), Sprache: Deutsch, Abstract: Gestützte Kommunikation (Facilitated Communication FC) ist ein umstrittenes Verfahren zur Unterstützung autistischer Menschen, welches es Personen ermöglicht, die sonst weder sprechen noch schreiben können, schriftliche Aussagen formulieren. Dabei werden teilweise erstaunliche Fähigkeiten und Einsichten offenbart. Ein berühmtes Beispiel ist der autistische junge Mann Birger Sellin, von dem einige Texte analysiert werden.
Es gibt eine breite Kritik an der Gestützten Kommunikation, die unterstellt, dass es sich bei den erzeugten Texten eigentlich um Produkte der Hilfepersonen handelt, denen die unterstützten Personen suggestiv-ideomotorisch folgen.
Die Arbeit beleuchtet einige Erfahrungen mit Gestützter Kommunikation, stellt wichtige Theoriefundamente für die Erklärung des Phänomens zusammen und analysiert eine empirische Untersuchung zur Validität des Verfahrens. (Wenke, Matthias)
    Bachelorarbeit aus dem Jahr 2003 im Fachbereich Pädagogik - Heilpädagogik, Sonderpädagogik, Note: 1,3, FernUniversität Hagen (Institut für Erziehungswissenschaft und Bildungsforschung), Sprache: Deutsch, Abstract: Gestützte Kommunikation (Facilitated Communication FC) ist ein umstrittenes Verfahren zur Unterstützung autistischer Menschen, welches es Personen ermöglicht, die sonst weder sprechen noch schreiben können, schriftliche Aussagen formulieren. Dabei werden teilweise erstaunliche Fähigkeiten und Einsichten offenbart. Ein berühmtes Beispiel ist der autistische junge Mann Birger Sellin, von dem einige Texte analysiert werden. Es gibt eine breite Kritik an der Gestützten Kommunikation, die unterstellt, dass es sich bei den erzeugten Texten eigentlich um Produkte der Hilfepersonen handelt, denen die unterstützten Personen suggestiv-ideomotorisch folgen. Die Arbeit beleuchtet einige Erfahrungen mit Gestützter Kommunikation, stellt wichtige Theoriefundamente für die Erklärung des Phänomens zusammen und analysiert eine empirische Untersuchung zur Validität des Verfahrens. (Wenke, Matthias)

    Bachelorarbeit aus dem Jahr 2003 im Fachbereich Pädagogik - Heilpädagogik, Sonderpädagogik, Note: 1,3, FernUniversität Hagen (Institut für Erziehungswissenschaft und Bildungsforschung), Sprache: Deutsch, Abstract: Gestützte Kommunikation (Facilitated Communication FC) ist ein umstrittenes Verfahren zur Unterstützung autistischer Menschen, welches es Personen ermöglicht, die sonst weder sprechen noch schreiben können, schriftliche Aussagen formulieren. Dabei werden teilweise erstaunliche Fähigkeiten und Einsichten offenbart. Ein berühmtes Beispiel ist der autistische junge Mann Birger Sellin, von dem einige Texte analysiert werden. Es gibt eine breite Kritik an der Gestützten Kommunikation, die unterstellt, dass es sich bei den erzeugten Texten eigentlich um Produkte der Hilfepersonen handelt, denen die unterstützten Personen suggestiv-ideomotorisch folgen. Die Arbeit beleuchtet einige Erfahrungen mit Gestützter Kommunikation, stellt wichtige Theoriefundamente für die Erklärung des Phänomens zusammen und analysiert eine empirische Untersuchung zur Validität des Verfahrens. , Grundlagen, ausgewählte Studien und Erklärungsversuche zu einem umstrittenen Phänomen , Bücher > Bücher & Zeitschriften , Auflage: 3. Auflage, Erscheinungsjahr: 20070814, Produktform: Kartoniert, Beilage: Paperback, Autoren: Wenke, Matthias, Auflage: 07003, Auflage/Ausgabe: 3. Auflage, Seitenzahl/Blattzahl: 48, Keyword: FC; Grandin; Sellin; FacilitatedCommunication, Warengruppe: HC/Sonderpädagogik, Behindertenpädagogik, Fachkategorie: Sonderpädagogik, Text Sprache: ger, UNSPSC: 49019900, Warenverzeichnis für die Außenhandelsstatistik: 49019900, Länge: 210, Breite: 148, Höhe: 4, Gewicht: 84, Produktform: Kartoniert, Genre: Sozialwissenschaften/Recht/Wirtschaft, Genre: Sozialwissenschaften/Recht/Wirtschaft, Herkunftsland: DEUTSCHLAND (DE), Katalog: deutschsprachige Titel, Katalog: Gesamtkatalog, Katalog: Lagerartikel, Book on Demand, ausgew. Medienartikel, Relevanz: 0000, Unterkatalog: AK, Unterkatalog: Bücher, Unterkatalog: Hardcover,

    Preis: 27.95 € | Versand*: 0 €
  • Bachelorarbeit aus dem Jahr 2006 im Fachbereich Medien / Kommunikation - Multimedia, Internet, neue Technologien, Note: 1,7, Universität Siegen (Sprach-. Liteartur- und Medienwissenschaften), Sprache: Deutsch, Abstract: Wir leben in einer Wissensgesellschaft. Beständig wachsende und zudem vernetzte Wissensbestände sorgen für ein hohes gesellschaftliches Bildungsniveau. Doch wie wird neues Wissen kommuniziert? Welche Rolle spielen dabei die Neuen Medien? 15 Jahre nach Beginn des kommerziellen World Wide Web ist es nun Zeit, ein erstes Fazit zu ziehen. Worin liegen die Vor- und Nachteile des Web gegenüber den herkömmlichen Medien? 

Die Informationsgesellschaft stellt hohe Anforderungen an die Kommunikationsfähigkeiten ihrer Mitglieder. Wo es früher eine überschaubare Menge an Zeitungen und Zeitschriften gab, die man regelmäßig als zuverlässige Informationsquelle heranzog, stellt das Internet nun sowohl den Leser als auch den Autor vor neue Herausforderungen. Der Autor muss sich mehr denn je gegenüber der stetig wachsenden Konkurrenz behaupten; der Leser wiederum steht vor einer fast unüberschaubaren Vielzahl von Angeboten im Netz. Die Kommerzialisierung des Internets führte in den letzten Jahren zu einer wahren Informationsflut. Einerseits wächst die Menge und Vielfältigkeit der Angebote, andererseits damit Zweifel an der Qualität der dargebotenen Informationen auf. Im Internet steht der Qualitätsjournalismus in direkter Konkurrenz zur Laienkommunikation. 

Es wurde in der Vergangenheit vielfach untersucht, mit welchen Mitteln fachliche Inhalte journalistisch für ein Massenpublikum aufbereitet werden. An die Neuen Medien ist die Hoffnung geknüpft, dass sie eine unmittelbare und unverzerrte Wissensvermittlung ermöglichen können; unter anderem, weil sie nicht im gleichen Maße unter kommerziellen Zwängen stehen. Die professionellen Journalisten besitzen heute kein Vermittlungsmonopol mehr. Stattdessen gibt es im Internet ein Nebeneinander von professioneller und partizipativer Wissensvermittlung. Die Fragen, die sich in diesem Zusammenhang stellen, sind folgende: Wie kann die Validität von Informationen nachgeprüft werden? Wieviel Realität wird verfälscht? Welche Wissenstransformationen gibt es? Gibt es nur massenmediale Transformationen oder weisen auch die weniger professionellen Nischenangebote diese Verzerrungen auf ¿ wenn ja, in welcher Art? (Henning, Theresa)
    Bachelorarbeit aus dem Jahr 2006 im Fachbereich Medien / Kommunikation - Multimedia, Internet, neue Technologien, Note: 1,7, Universität Siegen (Sprach-. Liteartur- und Medienwissenschaften), Sprache: Deutsch, Abstract: Wir leben in einer Wissensgesellschaft. Beständig wachsende und zudem vernetzte Wissensbestände sorgen für ein hohes gesellschaftliches Bildungsniveau. Doch wie wird neues Wissen kommuniziert? Welche Rolle spielen dabei die Neuen Medien? 15 Jahre nach Beginn des kommerziellen World Wide Web ist es nun Zeit, ein erstes Fazit zu ziehen. Worin liegen die Vor- und Nachteile des Web gegenüber den herkömmlichen Medien? Die Informationsgesellschaft stellt hohe Anforderungen an die Kommunikationsfähigkeiten ihrer Mitglieder. Wo es früher eine überschaubare Menge an Zeitungen und Zeitschriften gab, die man regelmäßig als zuverlässige Informationsquelle heranzog, stellt das Internet nun sowohl den Leser als auch den Autor vor neue Herausforderungen. Der Autor muss sich mehr denn je gegenüber der stetig wachsenden Konkurrenz behaupten; der Leser wiederum steht vor einer fast unüberschaubaren Vielzahl von Angeboten im Netz. Die Kommerzialisierung des Internets führte in den letzten Jahren zu einer wahren Informationsflut. Einerseits wächst die Menge und Vielfältigkeit der Angebote, andererseits damit Zweifel an der Qualität der dargebotenen Informationen auf. Im Internet steht der Qualitätsjournalismus in direkter Konkurrenz zur Laienkommunikation. Es wurde in der Vergangenheit vielfach untersucht, mit welchen Mitteln fachliche Inhalte journalistisch für ein Massenpublikum aufbereitet werden. An die Neuen Medien ist die Hoffnung geknüpft, dass sie eine unmittelbare und unverzerrte Wissensvermittlung ermöglichen können; unter anderem, weil sie nicht im gleichen Maße unter kommerziellen Zwängen stehen. Die professionellen Journalisten besitzen heute kein Vermittlungsmonopol mehr. Stattdessen gibt es im Internet ein Nebeneinander von professioneller und partizipativer Wissensvermittlung. Die Fragen, die sich in diesem Zusammenhang stellen, sind folgende: Wie kann die Validität von Informationen nachgeprüft werden? Wieviel Realität wird verfälscht? Welche Wissenstransformationen gibt es? Gibt es nur massenmediale Transformationen oder weisen auch die weniger professionellen Nischenangebote diese Verzerrungen auf ¿ wenn ja, in welcher Art? (Henning, Theresa)

    Bachelorarbeit aus dem Jahr 2006 im Fachbereich Medien / Kommunikation - Multimedia, Internet, neue Technologien, Note: 1,7, Universität Siegen (Sprach-. Liteartur- und Medienwissenschaften), Sprache: Deutsch, Abstract: Wir leben in einer Wissensgesellschaft. Beständig wachsende und zudem vernetzte Wissensbestände sorgen für ein hohes gesellschaftliches Bildungsniveau. Doch wie wird neues Wissen kommuniziert? Welche Rolle spielen dabei die Neuen Medien? 15 Jahre nach Beginn des kommerziellen World Wide Web ist es nun Zeit, ein erstes Fazit zu ziehen. Worin liegen die Vor- und Nachteile des Web gegenüber den herkömmlichen Medien? Die Informationsgesellschaft stellt hohe Anforderungen an die Kommunikationsfähigkeiten ihrer Mitglieder. Wo es früher eine überschaubare Menge an Zeitungen und Zeitschriften gab, die man regelmäßig als zuverlässige Informationsquelle heranzog, stellt das Internet nun sowohl den Leser als auch den Autor vor neue Herausforderungen. Der Autor muss sich mehr denn je gegenüber der stetig wachsenden Konkurrenz behaupten; der Leser wiederum steht vor einer fast unüberschaubaren Vielzahl von Angeboten im Netz. Die Kommerzialisierung des Internets führte in den letzten Jahren zu einer wahren Informationsflut. Einerseits wächst die Menge und Vielfältigkeit der Angebote, andererseits damit Zweifel an der Qualität der dargebotenen Informationen auf. Im Internet steht der Qualitätsjournalismus in direkter Konkurrenz zur Laienkommunikation. Es wurde in der Vergangenheit vielfach untersucht, mit welchen Mitteln fachliche Inhalte journalistisch für ein Massenpublikum aufbereitet werden. An die Neuen Medien ist die Hoffnung geknüpft, dass sie eine unmittelbare und unverzerrte Wissensvermittlung ermöglichen können; unter anderem, weil sie nicht im gleichen Maße unter kommerziellen Zwängen stehen. Die professionellen Journalisten besitzen heute kein Vermittlungsmonopol mehr. Stattdessen gibt es im Internet ein Nebeneinander von professioneller und partizipativer Wissensvermittlung. Die Fragen, die sich in diesem Zusammenhang stellen, sind folgende: Wie kann die Validität von Informationen nachgeprüft werden? Wieviel Realität wird verfälscht? Welche Wissenstransformationen gibt es? Gibt es nur massenmediale Transformationen oder weisen auch die weniger professionellen Nischenangebote diese Verzerrungen auf ¿ wenn ja, in welcher Art? , Online-Ausgaben von Massenmedien und Nischenangebote im Vergleich , Bücher > Bücher & Zeitschriften , Auflage: 3. Auflage, Erscheinungsjahr: 20080519, Produktform: Kartoniert, Beilage: Paperback, Autoren: Henning, Theresa, Auflage: 08003, Auflage/Ausgabe: 3. Auflage, Seitenzahl/Blattzahl: 52, Warengruppe: HC/Medienwissenschaften/Sonstiges, Fachkategorie: Grafische und digitale Media-Anwendungen, Text Sprache: ger, UNSPSC: 49019900, Warenverzeichnis für die Außenhandelsstatistik: 49019900, Verlag: GRIN Verlag, Länge: 210, Breite: 148, Höhe: 5, Gewicht: 90, Produktform: Kartoniert, Genre: Sozialwissenschaften/Recht/Wirtschaft, Genre: Sozialwissenschaften/Recht/Wirtschaft, eBook EAN: 9783638026147, Herkunftsland: DEUTSCHLAND (DE), Katalog: deutschsprachige Titel, Katalog: Gesamtkatalog, Katalog: Lagerartikel, Book on Demand, ausgew. Medienartikel, Relevanz: 0000, Unterkatalog: AK, Unterkatalog: Bücher, Unterkatalog: Hardcover,

    Preis: 27.95 € | Versand*: 0 €
  • Studienarbeit aus dem Jahr 2006 im Fachbereich Kunst - Kunsthandwerk, Note: 1,0, Universität Trier, Veranstaltung: Seminar Symbol, Allegorie, Emblem, Sprache: Deutsch, Abstract: Die kunsthistorische Methode der Ikonologie, in den 30er und 40er Jahren des 20. Jahrhunderts von Aby Warburg und Erwin Panofsky entwickelt, bereicherte die Forschung ungemein und lieferte neue, um nicht zu sagen bahnbrechende, Erkenntnisse. Doch im Laufe der Jahre wurden immer mehr Fragen aufgeworfen, die nicht nur die Methode an sich, sondern auch ihre Ergebnisse bezweifeln.
Gerade in den Interpretationen Eddy de Jonghs zur holländischen Genremalerei des 17. Jahrhunderts wird man mit Problemen konfrontiert: So kann man feststellen, dass der ikonologische, bzw. emblematische Ansatz zwar interessante und meistens auch in sich schlüssige Ergebnisse lieferte ¿ sich aber komplementär zu anderen Forschungsmeinungen verhält. Der somit auferlegte ¿Zwang zur Entscheidung¿ führte zu einer notwendig und nützlich erscheinenden intensiveren Weiterbeschäftigung mit dieser Thematik: Die Validität der Ikonologie als Methode, ihre Verwendbarkeit, Nützlichkeit und vor allem die sich aus ihr ergebenden Probleme stellen daher das Thema dieser Arbeit dar. 
Zuerst werden die Begriffe ¿Ikonographie¿ und ¿Ikonologie¿ erklärt, dann ein kurzer Überblick über die Entwicklung der ikonologischen Methode gegeben. Anschließend wird die Forschungsmethode anhand repräsentativer Kunsthistoriker hinsichtlich ihres Aufbaus, fehlenden Aspekten und Problemen chronologisch vorgestellt. 
Vorab konstatiert werden kann, dass im Laufe der Forschungsbeschäftigung immer weniger an der Methode an sich gearbeitet wurde, sondern vielmehr bisher vernachlässigte Aspekte und neue Betätigungsfelder integriert wurden: Die ikonologische Methode entwickelte sich vom Allgemeinen zum Speziellen. 
Nach diesem allgemeinen Überblick wurde ein Schwerpunkt gewählt, an welchem sich die Problematik besonders deutlich zeigt: Die Forschungspositionen zur Ikonologie der holländischen Genremalerei des 17. Jahrhunderts gehen (fast) unvereinbar weit auseinander und verdeutlichen daher exemplarisch die Schwierigkeiten ikonologischer Untersuchungsansätze.
Jan van Eycks Gemälde ¿Die Arnolfini-Hochzeit¿ bot sich schließlich für eine praktische Analyse der Methode an, da es zum einen von einem Begründer der Ikonologie, Erwin Panofsky, als auch, über 50 Jahre später, von seinem Kritiker Joannes Bedaux untersucht wurde.
Der Schwerpunkt dieser Arbeit liegt somit eher auf den Grenzen als den Möglichkeiten der Ikonologie. (Irsigler, Franziska)
    Studienarbeit aus dem Jahr 2006 im Fachbereich Kunst - Kunsthandwerk, Note: 1,0, Universität Trier, Veranstaltung: Seminar Symbol, Allegorie, Emblem, Sprache: Deutsch, Abstract: Die kunsthistorische Methode der Ikonologie, in den 30er und 40er Jahren des 20. Jahrhunderts von Aby Warburg und Erwin Panofsky entwickelt, bereicherte die Forschung ungemein und lieferte neue, um nicht zu sagen bahnbrechende, Erkenntnisse. Doch im Laufe der Jahre wurden immer mehr Fragen aufgeworfen, die nicht nur die Methode an sich, sondern auch ihre Ergebnisse bezweifeln. Gerade in den Interpretationen Eddy de Jonghs zur holländischen Genremalerei des 17. Jahrhunderts wird man mit Problemen konfrontiert: So kann man feststellen, dass der ikonologische, bzw. emblematische Ansatz zwar interessante und meistens auch in sich schlüssige Ergebnisse lieferte ¿ sich aber komplementär zu anderen Forschungsmeinungen verhält. Der somit auferlegte ¿Zwang zur Entscheidung¿ führte zu einer notwendig und nützlich erscheinenden intensiveren Weiterbeschäftigung mit dieser Thematik: Die Validität der Ikonologie als Methode, ihre Verwendbarkeit, Nützlichkeit und vor allem die sich aus ihr ergebenden Probleme stellen daher das Thema dieser Arbeit dar. Zuerst werden die Begriffe ¿Ikonographie¿ und ¿Ikonologie¿ erklärt, dann ein kurzer Überblick über die Entwicklung der ikonologischen Methode gegeben. Anschließend wird die Forschungsmethode anhand repräsentativer Kunsthistoriker hinsichtlich ihres Aufbaus, fehlenden Aspekten und Problemen chronologisch vorgestellt. Vorab konstatiert werden kann, dass im Laufe der Forschungsbeschäftigung immer weniger an der Methode an sich gearbeitet wurde, sondern vielmehr bisher vernachlässigte Aspekte und neue Betätigungsfelder integriert wurden: Die ikonologische Methode entwickelte sich vom Allgemeinen zum Speziellen. Nach diesem allgemeinen Überblick wurde ein Schwerpunkt gewählt, an welchem sich die Problematik besonders deutlich zeigt: Die Forschungspositionen zur Ikonologie der holländischen Genremalerei des 17. Jahrhunderts gehen (fast) unvereinbar weit auseinander und verdeutlichen daher exemplarisch die Schwierigkeiten ikonologischer Untersuchungsansätze. Jan van Eycks Gemälde ¿Die Arnolfini-Hochzeit¿ bot sich schließlich für eine praktische Analyse der Methode an, da es zum einen von einem Begründer der Ikonologie, Erwin Panofsky, als auch, über 50 Jahre später, von seinem Kritiker Joannes Bedaux untersucht wurde. Der Schwerpunkt dieser Arbeit liegt somit eher auf den Grenzen als den Möglichkeiten der Ikonologie. (Irsigler, Franziska)

    Studienarbeit aus dem Jahr 2006 im Fachbereich Kunst - Kunsthandwerk, Note: 1,0, Universität Trier, Veranstaltung: Seminar Symbol, Allegorie, Emblem, Sprache: Deutsch, Abstract: Die kunsthistorische Methode der Ikonologie, in den 30er und 40er Jahren des 20. Jahrhunderts von Aby Warburg und Erwin Panofsky entwickelt, bereicherte die Forschung ungemein und lieferte neue, um nicht zu sagen bahnbrechende, Erkenntnisse. Doch im Laufe der Jahre wurden immer mehr Fragen aufgeworfen, die nicht nur die Methode an sich, sondern auch ihre Ergebnisse bezweifeln. Gerade in den Interpretationen Eddy de Jonghs zur holländischen Genremalerei des 17. Jahrhunderts wird man mit Problemen konfrontiert: So kann man feststellen, dass der ikonologische, bzw. emblematische Ansatz zwar interessante und meistens auch in sich schlüssige Ergebnisse lieferte ¿ sich aber komplementär zu anderen Forschungsmeinungen verhält. Der somit auferlegte ¿Zwang zur Entscheidung¿ führte zu einer notwendig und nützlich erscheinenden intensiveren Weiterbeschäftigung mit dieser Thematik: Die Validität der Ikonologie als Methode, ihre Verwendbarkeit, Nützlichkeit und vor allem die sich aus ihr ergebenden Probleme stellen daher das Thema dieser Arbeit dar. Zuerst werden die Begriffe ¿Ikonographie¿ und ¿Ikonologie¿ erklärt, dann ein kurzer Überblick über die Entwicklung der ikonologischen Methode gegeben. Anschließend wird die Forschungsmethode anhand repräsentativer Kunsthistoriker hinsichtlich ihres Aufbaus, fehlenden Aspekten und Problemen chronologisch vorgestellt. Vorab konstatiert werden kann, dass im Laufe der Forschungsbeschäftigung immer weniger an der Methode an sich gearbeitet wurde, sondern vielmehr bisher vernachlässigte Aspekte und neue Betätigungsfelder integriert wurden: Die ikonologische Methode entwickelte sich vom Allgemeinen zum Speziellen. Nach diesem allgemeinen Überblick wurde ein Schwerpunkt gewählt, an welchem sich die Problematik besonders deutlich zeigt: Die Forschungspositionen zur Ikonologie der holländischen Genremalerei des 17. Jahrhunderts gehen (fast) unvereinbar weit auseinander und verdeutlichen daher exemplarisch die Schwierigkeiten ikonologischer Untersuchungsansätze. Jan van Eycks Gemälde ¿Die Arnolfini-Hochzeit¿ bot sich schließlich für eine praktische Analyse der Methode an, da es zum einen von einem Begründer der Ikonologie, Erwin Panofsky, als auch, über 50 Jahre später, von seinem Kritiker Joannes Bedaux untersucht wurde. Der Schwerpunkt dieser Arbeit liegt somit eher auf den Grenzen als den Möglichkeiten der Ikonologie. , Antiquarische Bücher > Antiquitäten & Kunst , Auflage: 3. Auflage, Erscheinungsjahr: 20070723, Produktform: Kartoniert, Beilage: Paperback, Autoren: Irsigler, Franziska, Auflage: 07003, Auflage/Ausgabe: 3. Auflage, Seitenzahl/Blattzahl: 48, Keyword: Seminar; Symbol; Allegorie; Emblem, Warengruppe: HC/Kunst/Sonstiges, Fachkategorie: Kunst: allgemeine Themen, Text Sprache: ger, UNSPSC: 49019900, Warenverzeichnis für die Außenhandelsstatistik: 49019900, Verlag: GRIN Verlag, Länge: 210, Breite: 148, Höhe: 4, Gewicht: 84, Produktform: Kartoniert, Genre: Geisteswissenschaften/Kunst/Musik, Genre: Geisteswissenschaften/Kunst/Musik, eBook EAN: 9783638599467, Herkunftsland: DEUTSCHLAND (DE), Katalog: deutschsprachige Titel, Katalog: Gesamtkatalog, Katalog: Lagerartikel, Book on Demand, ausgew. Medienartikel, Relevanz: 0000, Unterkatalog: AK, Unterkatalog: Bücher, Unterkatalog: Hardcover,

    Preis: 27.95 € | Versand*: 0 €

Ähnliche Suchbegriffe für Validität:


  • Ist Validität eine kontinuierliche Variable?

    Nein, Validität ist keine kontinuierliche Variable. Validität bezieht sich auf die Genauigkeit und Gültigkeit einer Messung oder eines Tests. Es handelt sich um eine qualitative Eigenschaft, die angibt, inwieweit ein Messinstrument das misst, was es messen soll. Validität kann als hoch oder niedrig bewertet werden, aber es gibt keine kontinuierliche Skala, auf der sie gemessen werden kann.

  • Wie berechne ich die Validität auf SPSS?

    Um die Validität auf SPSS zu berechnen, kannst du verschiedene statistische Verfahren verwenden. Eine Möglichkeit ist die Berechnung des Korrelationskoeffizienten zwischen zwei Variablen, um die Konstruktvalidität zu überprüfen. Du kannst auch eine Faktorenanalyse durchführen, um die Konvergenz- und Diskriminanzvalidität zu untersuchen. Darüber hinaus kannst du auch die interne Konsistenz einer Skala mithilfe des Cronbach's Alpha-Koeffizienten überprüfen.

  • Welche Beispielaufgaben gibt es für die Überprüfung der Objektivität, Reliabilität und Validität?

    Für die Überprüfung der Objektivität könnte man beispielsweise eine Aufgabe konstruieren, bei der verschiedene Personen unabhängig voneinander zu einem bestimmten Thema eine Meinung oder Einschätzung abgeben sollen. Die Übereinstimmung der Antworten könnte dann als Maß für die Objektivität dienen. Für die Überprüfung der Reliabilität könnte man eine Aufgabe konstruieren, die mehrfach an eine Gruppe von Personen gestellt wird und die Antworten vergleichen. Wenn die Antworten der Personen über die verschiedenen Durchgänge hinweg konsistent sind, spricht das für eine hohe Reliabilität. Für die Überprüfung der Validität könnte man eine Aufgabe konstruieren, bei der man das zu messende Konstrukt direkt erfasst. Zum Beispiel könnte man bei einer Aufgabe zur Messung der mathematischen Fähigkeiten die

  • Wie beeinflusst die Verwendung von Zufallsauswahlverfahren in der Psychologie die Validität und Reliabilität von Forschungsergebnissen?

    Die Verwendung von Zufallsauswahlverfahren in der Psychologie trägt zur Validität von Forschungsergebnissen bei, da sie sicherstellt, dass die Stichprobe repräsentativ für die Population ist. Dies erhöht die Generalisierbarkeit der Ergebnisse. Darüber hinaus trägt die Zufallsauswahl zur Reliabilität bei, da sie die Wahrscheinlichkeit von Verzerrungen oder systematischen Fehlern in der Stichprobe verringert. Durch die Verwendung von Zufallsauswahlverfahren können Forscher sicherstellen, dass ihre Ergebnisse nicht aufgrund von Voreingenommenheit oder unerwünschten Einflüssen verzerrt werden, was die Glaubwürdigkeit und Zuverlässigkeit ihrer Forschungsergebnisse erhöht.

  • Inwiefern beeinflusst die Validität von Daten die Entscheidungsfindung in den Bereichen Wissenschaft, Technologie und Wirtschaft?

    Die Validität von Daten ist entscheidend für die Qualität von Entscheidungen in den Bereichen Wissenschaft, Technologie und Wirtschaft. Fehlende Validität kann zu falschen Schlussfolgerungen führen und somit die Effektivität von Entscheidungen beeinträchtigen. In der Wissenschaft können falsche Daten zu fehlerhaften Theorien und Hypothesen führen, während in der Technologie und Wirtschaft falsche Daten zu ineffizienten Prozessen und Verlusten führen können. Daher ist es wichtig, dass Entscheidungsträger in diesen Bereichen sicherstellen, dass die Daten, auf denen ihre Entscheidungen basieren, valide und zuverlässig sind.

  • Wie beeinflusst der Einsatz von Randomisierungsmethoden in klinischen Studien die Zuverlässigkeit und Validität der Ergebnisse?

    Der Einsatz von Randomisierungsmethoden in klinischen Studien trägt zur Zuverlässigkeit der Ergebnisse bei, da sie sicherstellen, dass die Teilnehmer zufällig einer Behandlungsgruppe zugewiesen werden. Dadurch werden potenzielle Störfaktoren minimiert und die Wahrscheinlichkeit von Verzerrungen in den Ergebnissen verringert. Die Randomisierung erhöht auch die Validität der Ergebnisse, da sie sicherstellt, dass die Behandlungsgruppen vergleichbar sind und die Effekte der Interventionen objektiv bewertet werden können. Insgesamt trägt der Einsatz von Randomisierungsmethoden dazu bei, die Robustheit und Glaubwürdigkeit der Ergebnisse klinischer Studien zu verbessern.

  • Wie kann man die Validität von Informationen in den Bereichen Wissenschaft, Technologie und Wirtschaft sicherstellen?

    Um die Validität von Informationen in den Bereichen Wissenschaft, Technologie und Wirtschaft sicherzustellen, ist es wichtig, Quellen kritisch zu prüfen und zu überprüfen, ob sie von vertrauenswürdigen und glaubwürdigen Experten stammen. Zudem ist es wichtig, die Methoden und Daten, die zur Unterstützung der Informationen verwendet werden, zu überprüfen, um sicherzustellen, dass sie wissenschaftlichen Standards entsprechen. Darüber hinaus ist es wichtig, sich auf aktuelle und aktualisierte Informationen zu verlassen, um sicherzustellen, dass die Daten und Fakten relevant und korrekt sind. Schließlich ist es wichtig, verschiedene Quellen zu konsultieren und verschiedene Perspektiven zu berücksichtigen, um sicherzustellen, dass die Informationen aus verschiedenen Blickwinkeln betrachtet werden.

  • Wie kann man die Validität von Forschungsergebnissen in den Bereichen Wissenschaft, Technologie und Medizin sicherstellen?

    Die Validität von Forschungsergebnissen in den Bereichen Wissenschaft, Technologie und Medizin kann durch die Anwendung strenger wissenschaftlicher Methoden und Protokolle sichergestellt werden. Dazu gehören die Verwendung von Kontrollgruppen, Doppelblindstudien und statistische Analysen, um sicherzustellen, dass die Ergebnisse zuverlässig sind. Zudem ist eine unabhängige Überprüfung und Reproduzierbarkeit der Ergebnisse durch andere Forscher entscheidend, um die Validität zu bestätigen. Schließlich ist es wichtig, dass Forscher ihre Methoden und Ergebnisse transparent und vollständig veröffentlichen, um eine kritische Bewertung und Diskussion zu ermöglichen.

  • Was sind die Gütekriterien wissenschaftlichen Vorgehens in der Psychologie und wie unterscheidet man Validität und Reliabilität?

    Die Gütekriterien wissenschaftlichen Vorgehens in der Psychologie umfassen Validität, Reliabilität, Objektivität und Ökonomie. Validität bezieht sich auf die Genauigkeit und Gültigkeit der gemessenen Ergebnisse, während Reliabilität die Zuverlässigkeit und Konsistenz der Messungen beschreibt. Validität bezieht sich also auf die Frage, ob ein Test das misst, was er messen soll, während Reliabilität sich auf die Frage konzentriert, ob ein Test zuverlässige und konsistente Ergebnisse liefert.

  • Wie können Messergebnisse in der Wissenschaft reproduzierbar gemacht werden, um die Validität von Experimenten zu gewährleisten?

    Um die Reproduzierbarkeit von Messergebnissen in der Wissenschaft zu gewährleisten, ist es wichtig, dass die Experimente und Messungen detailliert dokumentiert werden. Dies umfasst die genaue Beschreibung der verwendeten Methoden, Materialien und Geräte. Zudem ist es wichtig, dass die Experimente von unabhängigen Forschern wiederholt werden können, um die Validität der Ergebnisse zu überprüfen. Eine transparente Veröffentlichung der Ergebnisse und Daten ermöglicht es anderen Wissenschaftlern, die Experimente zu reproduzieren und die Ergebnisse zu überprüfen. Schließlich ist es wichtig, dass die wissenschaftliche Gemeinschaft offene Diskussionen über die Reproduzierbarkeit von Experimenten führt, um die Qualität und Zuverlässigkeit der Forschungsergebnisse zu gewährleisten.

  • Was ist die Validität von Intelligenzmessungen und wie hoch ist die Korrelation zwischen Intelligenz und Erfolg?

    Die Validität von Intelligenzmessungen bezieht sich darauf, ob ein Test tatsächlich das misst, was er zu messen vorgibt, nämlich die Intelligenz einer Person. Unterschiedliche Intelligenztests haben unterschiedliche Validitätsniveaus, aber im Allgemeinen gelten sie als relativ valide. Die Korrelation zwischen Intelligenz und Erfolg ist positiv, aber nicht perfekt. Es gibt eine Tendenz, dass Menschen mit höherer Intelligenz tendenziell erfolgreichere Berufs- und Bildungslaufbahnen haben. Allerdings spielen auch andere Faktoren wie Persönlichkeit, Motivation und soziale Unterstützung eine Rolle beim Erfolg.

  • Wie beeinflusst die Verwendung von Zufallsauswahlverfahren in der psychologischen Forschung die Validität und Zuverlässigkeit von Studienergebnissen?

    Die Verwendung von Zufallsauswahlverfahren in der psychologischen Forschung trägt zur Validität der Studienergebnisse bei, da sie sicherstellt, dass die Stichprobe repräsentativ für die Gesamtbevölkerung ist. Dies erhöht die Generalisierbarkeit der Ergebnisse. Zufallsauswahlverfahren tragen auch zur Zuverlässigkeit bei, da sie die Wahrscheinlichkeit von Verzerrungen in der Stichprobe verringern, was die Konsistenz der Ergebnisse erhöht. Durch die Verwendung von Zufallsauswahlverfahren können Forscher sicherstellen, dass ihre Studienergebnisse nicht aufgrund von systematischen Verzerrungen oder Voreingenommenheit beeinflusst werden, was die Validität und Zuverlässigkeit der Ergebnisse erhöht.