Die durchgeführte Studie konzentriert sich konkret auf die Anwendungen von großen Sprachmodellen, ihre Auswirkungen auf die wissenschaftliche Praxis, ethische und rechtliche Überlegungen sowie die erforderlichen Kompetenzen für ihre effektive Nutzung.Den befragten Expert*innen zufolge machen sich die positiven Effekte am stärksten im textuellen Bereich der wissenschaftlichen Arbeit bemerkbar. Sie steigern die Effizienz von Forschungsprozessen, indem sie verschiedene Aufgaben beim Verfassen und Veröffentlichen von wissenschaftlichen Ergebnissen automatisieren. Zudem ermöglichen sie eine große Entlastung für administrative Berichts- und Antragsverfahren, die in den letzten Jahren im Arbeitsalltag von Wissenschaftler*innen stark zugenommen haben. Die Studienteilnehmenden sind der Meinung, dass Forschende so wieder mehr Zeit haben, sich auf ihre Untersuchungsinhalte zu konzentrieren und ihre Ergebnisse einem breiteren Publikum effektiv zu vermitteln. Somit schaffen große Sprachmodelle zukünftig mehr Raum für kritisches Denken, neue Innovationen und eine breitere Kommunikation von Ergebnissen.
Neben den unbestreitbaren Vorteilen unterstreicht die Studie aber auch die Notwendigkeit, sich mit möglichen negativen Folgen für das Wissenschaftssystem auseinanderzusetzen. Große Sprachmodelle können missbraucht werden, um falsche, irreführende und scheinbar wissenschaftliche Behauptungen aufzustellen. Diese sind auf den ersten Blick oft schwer von echten Forschungsergebnissen zu unterscheiden. Den Befragten zufolge können mit ihnen Fehlinformationen in der öffentlichen Debatte verbreitet und politische Entscheidungen beeinflusst werden. Ein weiteres Problem sehen sie in fehlerhaften Trainingsdaten von großen Sprachmodellen, durch die beispielsweise diskriminierende Stereotypen in die von ihnen produzierten Texte eingebettet werden. Diese Fehler könnten unbemerkt in wissenschaftliche Debatten eindringen, wenn Forschende LLM-generierte Inhalte ohne gründliche Überprüfung in ihre tägliche Arbeit einbeziehen.
Um diese Herausforderungen zukünftig zu bewältigen, müssen sich Wissenschaftler*innen neue Kompetenzen aneignen. Dazu gehört beispielsweise die Fähigkeit, Ergebnisse von großen Sprachmodellen kritisch zu kontextualisieren. In Zeiten, in denen die Verbreitung von Desinformationen in der Gesellschaft zunimmt, braucht es Forschende, die mit ihrer Expertise, Autorität und Reputation für die Versachlichung des öffentlichen Diskurses eintreten. Die Befragten fordern deswegen strengere gesetzliche Regelungen, eine erhöhte Transparenz der Trainingsdaten sowie verantwortungsvolle und ethische Praktiken beim Einsatz generativer KI.
Dr. Benedikt Fecher, Forschungsleiter am HIIG und Geschäftsführer von Wissenschaft im Dialog, kommentiert: „Die Ergebnisse verdeutlichen das transformative Potenzial großer Sprachmodelle in der wissenschaftlichen Forschung. Obwohl ihr enormer Nutzen die Risiken überwiegt, zeigen die Expert*innenmeinungen aus den Bereichen KI und Digitalisierung, wie wichtig es ist, die Herausforderungen im Zusammenhang mit Fehlinformationen und dem Verlust des Vertrauens in die Wissenschaft konkret anzugehen. Wenn wir LLMs verantwortungsvoll einsetzen und uns an ethische Richtlinien halten, können wir mit ihnen die positiven Auswirkungen maximieren und den potenziellen Schaden minimieren.“
Alexander von Humboldt Institut für Internet und Gesellschaft
Die Studie „Friend or Foe? Exploring the Implications of Large Language Models on the Science System” ist ab sofort als Preprint verfügbar.