Pfiff Stiefel Fleet 102238 Modischer Reitstiefel Gr 40 anthrazit Reitstiefel Boot YPESV2fXll

SKU7507859
Pfiff Stiefel Fleet 102238 Modischer Reitstiefel Gr. 40 anthrazit Reitstiefel Boot YPESV2fXll
Pfiff Stiefel Fleet 102238 Modischer Reitstiefel Gr. 40 anthrazit Reitstiefel Boot

vielen Dank für deine Antwort. Da wir mit unseren 7. Monate alten Sohn reisen, haben wir uns nun für das „Luxus Shuttle“ entschieden. Auf der Buchungsseite stehen nur Erwachsen und Kind (3-12) zur Auswahl. Wie sollen wir das Baby bei der Buchung angeben?

Da ich auch ein Flughafen-Hotel Transfer buchen möchte, möchte ich gerne wissen, ob dafür ein Kindersitz in USA notwendig ist? Oder kann er auf dem Schoß sitzen?

Vielen Dank im Voraus, Flora

23. Juni 2018 um 21:27Uhr Antworten
Sabrina

Hallo Flora, ja, ihr müsstet das bei der Buchung auf jeden Fall angeben. Hat Steffen auch so gemacht, dann werden Kindersitze zur Verfügung gestellt. VG Sabrina

26. Juni 2018 um 16:19Uhr
Britta W.

Hallo Flora, ich hab auch grad die Situation. Ich war beim Visitorcenter der Grayline in der 8th Ave /47/48th St. Da wurde mir gesagt ich könne kein Ticket für morgen einlösen und heute wäre für den Pass zu spät. Da müsste ich früher kommen, so dass ich schon um8:30uhr wieder am Port authority bin. Tag vorher schon mal Ticket holen ginge nicht, andere Abfahrt Zeit geht auch nicht. Um flexibel zu sein müsste man extra buchen, unabhängig vom Pass :-/. War ziemlich enttäuscht heute morgen, da ich das so direkt nicht gelesen hatte. (oder eben überlesen). Hab mich heutvschon geärgert, dass ich mir diesen Pass gekauft habe.

19. Juni 2018 um 05:22Uhr Fischer Mädchen Nelly Niedrige Hausschuhe Blau Marine Pink 527 39 EU 27Twf5g
Flora

Hallo Liebe Loving New York Team,

vielen Dank für eure informativen Beiträge. Wir reisen in zwei Wochen mit dem New York Sightseeing Pass nach NYC. Während der Zeit wollen wir auch für einem Tag nach Woodbury fahren. Auf der Flyer von Sightseeing Pass steht die Abholzeit mit 9uhr (Check-In 8h30). Allerdings auf der Woodbury Website zeigt ein Fahrplan mit Hinfahren ab 7h30… Wir wollen früher starten, wäre es auch mit NY Sightseeing Pass möglich? Reicht es wenn wir der Pass mitbringen, oder müssen wir vorher noch die richtigen Tickets abholen?

liebe Grüße und besten Dank

18. Juni 2018 um 16:35Uhr Hausschuhe MANITU 320494 Blau 5GnZ5h
Maureen

Hi Flora,

ihr müsstet erst einmal Tickets im Gray Line CitySightseeing Visitor Center (777 8th Ave) holen. Leider sind die Zeiten durch Sightseeing Pass schon vorgegeben, daher denke ich nicht, dass ihr fahren könnt wann ihr möchtet. Um 8:15am ist Check-In und um 9am geht es dann los.

VG Maureen

18. Juni 2018 um 17:46Uhr
Cathrin

Hallo Maureen, vielen Dank für deine Antwort. Wo finde ich denn eine Übersicht der Abfahrtsorte? Und reicht eine Reservierung oder muss ich zusätzlich die Tickets irgendwo abholen (wenn ja, wo?)? Vielen Dank (eure Infos sind gefühlt meine Rettung )

19. April 2018 um 09:45Uhr Mädchen Flach Samt Schleife Hasenohren Turnschuhe Größe 30 JAVSwH
Maureen

Hallo Cathrin,

Auch wenn ich dir zustimmen würde, wenn es möglich wäre – nach dem Tod des Opfers – genau zu sagen, wer der „Täter“ ist, dann sollte dieser auch für diesen „Mord“ auch entsprechend bestraft werden.

Leider entsteht Mobbing nicht von heute auf morgen und auch die Verletzungen entwickeln sich erst mit der Zeit. Aber gerade da es ein langwieriger Prozess ist in dem das Selbstwertgefühl, Selbstvertrauen/-bewusstsein soweit gesenkt wurde, bis man es – auch als Opfer – erkennt, dass es Mobbing ist. Denn diese erkennen es oft selbst nicht sofort und denken eher, dass wohl etwas wahres dran sein muss (vom Gesprochenen) bzw. die Handlungen einen Grund haben müssen. Sie suchen den Fehler eher bei sich als bei anderen.

says:
04/02/2013 at 19:23

Aus eigener Erfahrung kann ich dir in vielen, vielen Punkten zustimmen. Ja, die Grenze ist fließend und es ist nicht leicht. Die Motive kennt keiner, denn teilweise ist die Grenze klar überschritten. Ich selbst weiß nicht, warum ich jemals auf der Opferliste (zwar nicht im Internet) stand, habe zwar eine Vermutung, aber das Motiv kennt keiner, nicht einmal die Mobber selbst. Das war die bitterste Erfahrung, die ich jemals in diesem Bereich gemacht habe. Es war verdammt bitter und ernsthaft, ich wusste nicht, ob ich die jetzt einfach zusammenschlagen soll oder einfach alles beende. Denn nach so einer Ankündigung geht es einem dreckig. Warum man sich umbringt? Ganz einfach, weil man mit dem ganzen Schmerz und dem ganzen gegen einen (von anderen und einem selbst) gerichteten Hass nicht mehr klar kommt, wenn es denn überhaupt Hass ist. Man geht daran kaputt und wenn man merkt, wie kaputt man ist, schmerzt alles einfach nur noch. Irgendwann hat man dann keine Kraft mehr und man ist froh, wenn man es beenden kann. Ich mein, ich bin aus der Phase raus, aber ich kann Amanda verdammt gut verstehen. aber zurück zu deinem Kommentar, Michiru. Es stimmt nicht unbedingt, dass man als Opfer den Fehler bei sich sucht. Nicht nur zumindest. Man sucht nach einem Grund, und wenn man keinen findet, ist das so mit das bitterste, was man als Antwort bekommen kann. Man sucht den Fehler nicht nur bei sich. Aber einen Teil. So Richtung, ‚ich war ja selbst schuld, hätt ja was sagen können‘. In der Richtung sucht man den Fehler bei sich. Nicht in einer anderen.

says:
04/02/2013 at 19:48

Ob Fehler oder Grund suchen: es läuft irgendwann darauf hinaus dass es schlicht und ergreifend egal ist, was man als Opfer tut: selbst das Atmen wird einem als Fehler angekreidet. Es gibt als Opfer keinen Weg, etwas richtig zu machen oder einen ursprünglichen Grund zu beseitigen: wer als Opfer auserkoren wurde, ist Opfer und hat auch Opfer zu sein. Punkt. Da kennt der „normale Täter“ kein Erbarmen. Wer so etwas noch nicht am eigenen Leib oder im Bekannten-/Freundes-/Kollegenkreis erlebt hat, kann sich gar nicht vorstellen, was für eine Hilflosigkeit da geschaffen wird, aus der es meist keinen anderen Ausweg gibt, außer zu gehen, sich den Angriffen zu entziehen.

Direkt zum Inhalt Direkt zur Navigation Sitemap
HUANGLING Herren Römersandalen grün grün Größe 38 hmBeCPFu
Nina Adams Kommentare deaktiviert für Maschinelle Entscheidungsunterstützung In wohlfahrtsstaatlichen Institutionen: Nutzungsoptionen, Implikationen und Regulierungsbedarfe (MAEWIN)

Projektbeschreibung

Ausgangssituation Aufgrund rasanter technischer Fortschritte in den Feldern maschinellen Lernens, künstlicher Intelligenz (KI) und Big Data Analytics halten diese Technologien in immer mehr Bereichen unserer Gesellschaft Einzug. Auch in Anwendungskontexten, die komplexe Bewertungs- und Entscheidungssituationen umfassen, entsteht damit die Möglichkeit, menschliches Entscheiden durch maschinelle Verfahren zu ersetzen. Umgesetzt wird dies etwa in Predictive Analytics (z.B. Predictive Policing) oder bei Scorings zur Bewertung von Kreditwürdigkeit. Regeln zur Kreditvergabe werden hier auf Basis umfassender digitaler Profile, die u.a. auch die private Nutzung von Social Media umfassen, musterbasiert ex post festgelegt und sind damit für die Betroffenen nicht antizipierbar. Dies führt zum Verlust von Transparenz über Prozess und Kriterien für die Entscheidungsfindung. Während das in privatwirtschaftlichen Anwendungsbereichen bereits problematisch ist, werden im Kontext (wohlfahrts-)staatlichen Handelns bzw. Entscheidens gegenüber Bürger*innen hierdurch demokratische Grundwerte gefährdet – insbesondere dann, wenn Entscheidungen nicht durch gesetzliche Vorgaben, klare Verfahrensregeln, formale Leistungsvoraussetzungen etc. determiniert sind, sondern eine fachliche Bewertung durch Fachkräfte erfordern, die Spielräume für professionelles Ermessen lässt. Besonderes Gewicht erfährt diese Problematik, wenn Entscheidungen folgenreich für die Lebensführung der Bürger*innen sind. Dies trifft regelmäßig für den Bereich wohlfahrtsstaatlicher Institutionen und Sozialer Dienste zu. Gleichwohl weisen die neuen technischen Verfahren aber auch Vorteile gegenüber herkömmlichen Vorgehensweisen auf. So können sie bislang (statistisch/maschinell) nicht auswertbare Datensätze erschließen und damit die Evidenzbasierung und Qualität von Entscheidungen erhöhen, indem sie ein erweitertes Wissen über den Verlauf und die Ergebnisse von Hilfen in Sozialen Diensten verfügbar machen und damit gleichzeitig etwa auch neue Formen von Wirkungsnachweisen ermöglichen, wie sie gesellschaftlich und politisch zunehmend eingefordert werden. Damit stellt sich die Frage, wie im Kontext wohlfahrtsstaatlicher Institutionen zukünftig die Potentiale maschineller Entscheidungsunterstützung genutzt werden können, um die Wissensbasis für Entscheidungen und Wirkungsnachweise zu erhöhen, ohne dabei demokratische Prinzipien, Datenschutz und Privatheit zu gefährden.

Zielsetzung und Fragestellungen

MAEWIN hat zum Ziel, die Chancen und Risiken automatisierter Verfahren zur Text- und Datenanalyse für die Generierung evidenz-gestützter Handlungsempfehlungen für das Feld Sozialer Dienste prototypisch zu explorieren. Damit bewegt sich das Vorhaben im Spannungsfeld zwischen dem aktuell vorherrschenden „Big-Data“-Paradigma, das auf der Grundlage groß angelegter Datenanalyse mit Verfahren des maschinellen Lernens intransparente Präferenzen und Korrelationen ermittelt, und verbrieften Ansprüchen der Bürger*innen an transparente und verlässliche sozialstaatliche Institutionen in einer demokratisch verfassten Gesellschaft. Ein Schwerpunkt liegt daher neben der ontologisch fundierten Textanalyse auf dem Einsatz von Methoden aus der Argumentationstechnologie zur Rationalisierung und Kontextualisierung von Handlungsempfehlungen. Wo reine „Big-Data“-Verfahren zu einer Entmündigung der Entscheider*innen und damit in letzter Konsequenz einer Auslieferung der Bürger*innen an undurchsichtige Verfahren der Informationstechnologie führen, soll hier ein Beitrag zur Erhöhung der Entscheidungsqualität bei gleichzeitiger vollständiger Transparenz und Verlässlichkeit des Verfahrens ermöglicht werden. Eine wichtige hierbei zu klärende Frage ist, wie sich eine maschinelle Wissensverarbeitung in fachlichen Entscheidungspraxen etablieren lässt. Dabei sind als Ziele einer Etablierung konkrete Werte vorgegeben: Einerseits soll die Wissensbasis und Qualität der Entscheidungsfindung erhöht, andererseits mit einem maschinellen System zur Entscheidungsunterstützung eine Transparenz hinsichtlich der Entscheidungsregeln und -verfahren gegenüber (betroffenen) Bürger*innen gesichert werden. Somit besteht die Herausforderung, Technikgestaltung auf der einen Seite (durch die Entwicklung eines prototypischen Systems zur Entscheidungsfindung) mit einer Technikfolgenabschätzung auf der anderen Seite (durch ELSI-Forschung und Fragen der Etablierung dieses Systems) zu verbinden. Um innerhalb dieses Spannungsverhältnisses nicht im Collingridge-Dilemma zu verharren, sind beginnend Ziel und Zweck der Technik zu diskutieren und zu definieren, um im weiteren Verlauf die gesellschaftliche Wahrnehmung zu schärfen, damit diese bei der konkreten Ausgestaltung des Systems Berücksichtigung findet. Aus sozial- bzw. geisteswissenschaftlicher Perspektive werden mit dem Projektvorhaben mehrere Fragen tangiert: Zunächst greift die Frage der (erfolgreichen) Etablierung der Technik in die fachliche Entscheidungspraxis die Debatte um Handlungsträgerschaften von Technik auf. In einer hybriden Lebenswelt begegnen sich Mensch und Technik seit Längerem, wobei die Handlungsträgerschaften insbesondere bei denjenigen Anwendungen der Big-Data-Technologien fließend zu werden scheinen, wo diese Technologien autonome Entscheidungen treffen sollen. Dies stellt insofern eine Herausforderung dar, da Entscheidungen selbst mit Verantwortung verbunden sind. Obgleich die Frage der Agency für die Big-Data-Technologien zu Projektbeginn nicht hinreichend geklärt ist, scheint es dennoch sinnvoll, für den Ausgangspunkt dieser Analyse zunächst eine pragmatische Herangehensweise zu wählen: nicht die „Wesensfrage“ von Algorithmen per se muss geklärt werden, sondern vielmehr die Fragen, welcher Umgang mit den Big-Data-Technologien für wohlfahrtsstaatliche Institutionen unter welchen Umständen sinnvoll erscheint, ob und wie diese gestaltbar sind und worin möglicherweise eine gewisse Eigendynamik gründet, die es im weiteren Verlauf der Anwendungsfragen zu berücksichtigen gilt. Darüber hinaus soll die Frage der Transparenz für die Entscheidungsfindung aufgegriffen werden. Entscheidungen bezüglich der sozialen Teilhabe, wie sie z.B. im Rahmen der Teilhabeplanung in der Eingliederungshilfe für Menschen mit Behinderungen beim Kooperationspartner Bethel getroffen werden, sind in Verwaltungsprozesse eingebunden, welche wiederum den Anforderungen der Transparenz und Nachvollziehbarkeit genügen müssen (Prozesstransparenz). Je komplexer und weitreichender die Entscheidungen sind, die getroffen werden, desto höher sollte die Prozesstransparenz ausfallen (um bspw. eine Akzeptanz und Legitimation der Entscheidung herbeiführen bzw. begründen zu können). Es stellt sich dabei jedoch die Frage, welche Form der Transparenz von wem erwartet wird, welche Auskunft diese für die Nutzenden liefert und welche Informationen hierfür benötigt werden. Da schlussendlich möglichst auch die Etablierung des maschinellen Systems der Entscheidungsfindung analysiert werden soll, gilt es auch zu klären, wie die Nutzer*innen diesem gegenüberstehen. Hierbei scheint es wesentlich darauf anzukommen, in welchen Situationen das System eingesetzt werden soll: Einerseits besteht die Annahme, dass ein System der maschinellen Entscheidungsfindung durch die in ihm integrierten Regeln und Verfahren in der Lage sein könnte, objektive und unparteiische Entscheidungen zu treffen. Subjektivität und sogenannte weichere Faktoren der Entscheidungsfindung (wie geschlechts- oder diversitätsbezogene Faktoren) könnten durch das System möglicherweise ausgeschlossen oder auf ein Minimum begrenzt werden. Es kann für die von der Entscheidung betroffenen Personen ein Vorteil darstellen, wenn ihre Situation durch technische Hilfsmittel weitestgehend objektiv, unparteiisch und vorurteilsfrei bewertet wird. Dem steht gegenüber, dass die Algorithmen selbst nicht frei von Vorurteilen sind, sondern diese durchaus befördern und/oder verstärken können, bspw. wenn die neuronalen Netzwerke zuvor mit entsprechenden Trainingsdaten trainiert wurden. Andererseits sind durchaus Situationen vorstellbar, in welchem die Erfahrung des Mitgefühls und die Einfühlung in die Situation der Lage der Betroffenen eine richtungsweisende Komponente in der Entscheidungsfindung sein kann. Die Idee, dass Menschen oder Maschinen per se die besseren Entscheiderinnen sind, ist demnach von vornerein zu hinterfragen. Stattdessen stellen sich folgende Fragen: Welche Bedeutung wird den weicheren Faktoren bei einem maschinellen System der Entscheidungsfindung zugeschrieben? Kann oder sollte der vom Gesetzgeber als Ermessensspielraum benannte Handlungsraum in einem System zur maschinellen Entscheidungsfindung ebenfalls abgebildet werden? Oder anders gefragt: Was macht ein gerechte(re)s Urteil aus, das durch das System abgebildet werden soll? In welchen Situationen wird eine maschinell-unterstützte Handlungsempfehlung als sinnvoll erachtet und warum?

Vorgehensweise

Die angestrebten Ziele sind nur zu erreichen in der Zusammenführung der hierfür erforderlichen sozialwissenschaftlichen und informatischen Expertise in den beiden Promotionen des Projektes MAEWIN: Eine gemeinsame explorative Erkundung in unterschiedlichen Institutionen des Praxispartners (von Bodelschwinghsche Stiftungen Bethel) dient der systematischen Analyse der jeweiligen Datenproduktion und Entscheidungsprozesse und aktueller und prinzipiell möglicher Bezüge zwischen beiden (z.B. bei Hilfeplanung, Diagnose- und Assessmentverfahren, Maßnahmeauswahl, Fall-Dokumentationen). Auf dieser Grundlage erfolgt die Auswahl von Anwendungsfeldern für eine vertiefende Analyse, in der die jeweils im Feld prozessproduzierten Daten kooperativ im Tandem für die Anwendung maschineller Bewertungsverfahren aufbereitet werden. Dabei werden im Unterschied zu herkömmlichen (statistischen) Verfahren auch unstrukturierte Daten, wie etwa Freitexteinträge aus Falldokumentationen, erschlossen. Hierzu werden zunächst kooperativ im Tandem Wissensstrukturen erzeugt, die das domänenspezifische Hintergrundwissen in Form von Entitäten und semantischen Relationen zwischen diesen abbilden und formalisieren (z.B. in Ontologien oder Wissensgraphen). Anschließend werden die unstrukturierten Textdokumente mittels Verfahren der automatisierten Informationsextraktion verarbeitet, wobei eine Abbildung des Textinhalts auf die in der Ontologie spezifizierten Entitäten und Relationen erfolgt. Im Ergebnis liefert diese Vorgehensweise somit eine ontologie-basierte strukturierte Textrepräsentation, die die semantische Kerninformation der analysierten Texte sowohl für Entscheider*innen konzise zusammenfasst als auch für die maschinelle Weiterverarbeitung, beispielsweise die gezielte Suche nach ähnlich gelagerten Einzelfällen aus der Vergangenheit, zugänglich macht. Dabei können über die ebenfalls einbezogenen strukturierten Daten auch weitere, z.B. geschlechts- und diversitätsbezogene Faktoren sichtbar und so für eine fachliche Reflexion zugänglich gemacht werden. In der Zusammenführung von feldbezogener und informatischer Expertise im Tandem werden darüber hinaus Szenarien für zukünftige mögliche Datenquellen und deren Nutzungsmöglichkeiten entwickelt. So ist möglicherweise der ergänzende Einsatz von Instrumenten zur objektiveren Erfassung von Outcomes erforderlich. Kern des Projektes ist dann auf technischer Seite die Entwicklung eines prototpischen Systems zur Entscheidungsunterstützung, das in der Lage ist, für einen vorliegenden Einzelfall mehrere Entscheidungsoptionen gegeneinander abzuwägen und mit Verfahren der Argumentationstechnologie für Entscheider*innen transparent und nachvollziehbar zu machen. Auf sozialwissenschaftlicher Seite geht es unter Einbeziehung professionstheoretischer, wissenssoziologischer, arbeitswissenschaftlicher, ethischer und rechtlicher Aspekte um die Untersuchung, wie auf der Grundlage der Ergebnisse dieser maschinellen Wissensverarbeitung eine Einbindung in den fachlichen Entscheidungspraxen möglich ist, welche die Wissensbasis und die Qualität der Entscheidungsfindung erhöht und gleichzeitig gegenüber den betroffenen Bürger*innen eine Transparenz bezüglich der Entscheidungsregeln und –verfahren herstellt, die deren demokratische Rechte sichert.

Vorarbeiten

Hierzu ist eine enge Verbindung von Kenntnissen auf dem Gebiet der automatisierten Verarbeitung natürlich-sprachlicher Texte (speziell der ontologie-basierten Informationsextraktion und der Argumentationstechnologie) mit einer sozialwissenschaftlichen Expertise bezogen auf das Feld wohlfahrtstaatlicher Institutionen erforderlich, die durch die beteiligten Principal Investigators eingebracht wird. Prof. Seelmeyer verfügt über entsprechende Feldkenntnisse und Zugänge zum Feld. Er hat sich seit Jahren forschend und entwickelnd mit Sozialen Diensten befasst (z.B. Jugendamt, Erziehungshilfen, Behindertenhilfe), Datenmodelle für Fachanwendungen entwickelt (z.B. Jugendmigrationsdienste oder Jugendsozialarbeit) und in Evaluationsprojekten prozessproduzierte Daten aus solchen Anwendungen (z.B. aus Arbeitsagenturen) analysiert. Er ist eng vertraut mit sozialpolitischen, fachlichen und ethischen Aspekten sowie gesetzlichen und administrativen Rahmenbedingungen wohlfahrtsstaatlicher Institutionen, die für eine differenzierte Analyse der demokratiebezogenen Risiken und Herausforderungen einer maschinellen Entscheidungsunterstützung erforderlich sind. Prof. Cimiano ist ein international ausgewiesener Experte in den Bereichen Semantic Web und Natural Language Processing. Seine Arbeitsschwerpunkte umfassen u.a. die Modellierung domänenspezifischen Wissens in Ontologien und Wissensgraphen, die Informationsextraktion aus unstrukturierten Texten mit Verfahren des maschinellen Lernens und die ontologie-basierte Interpretation natürlicher Sprache. Er verfügt über langjährige Erfahrung in der Leitung interdisziplinärer Forschungsprojekte, aktuell im BMBF-geförderten Projekt PSINK („Automatically Populating a Preclinical Spinal Cord Injury Knowledge Base to Support Clinical Translation“) und als Koordinator des DFG Schwerpunktprogramms „Robust Argumentation Machines“ (RATIO; SPP 1999). Das Projekt MAEWIN baut schließlich auf bestehende Forschungskooperationen (u.a. im BMBF-Projekt KogniHome) mit den von Bodelschwinghschen Stiftungen Bethel auf, die einer der größten diakonischen Träger Europas mit einem breiten Angebot an sozialen Hilfen sind. Da sowohl von Kostenträgern, als auch Klienten*innen zunehmend Wirkungsnachweise eingefordert werden, besteht großes Interesse an den Ergebnissen des Projektes. Als Praxispartner stellen die von Bodelschwinghschenschen Stiftungen Bethel sowohl prozessproduzierte Daten aus Fachanwendungen für die Analyse zur Verfügung, als auch personelle Ressourcen für die Mitwirkung in Form von Interviews, Gruppendiskussionen o.ä. Dies trägt auch mit dazu bei, dass sowohl die Ontologiebildung als auch die Nutzung der Verfahren den fachlichen, (datenschutz-)rechtlichen, ethischen und auch handlungspraktischen Anforderungen des Arbeitsfeldes Rechnung tragen.

Promotionen im Projekt MAEWIN

Angelika Maier studierte im Bachelor Germanistik mit Texttechnologie als Nebenfach und im Master Linguistik mit dem Profil Computerlinguistik. In ihrer Masterarbeit untersuchte sie inkrementelle End-of-Turn Erkennung für Dialogsysteme. Seit Juli 2016 arbeitet sie, gefördert durch ein CITEC-Stipendium, als Doktorandin in der Semantic Computing Group. Sie untersucht die Extraktion von argumentativen Zusammenhängen aus natürlich-sprachlichen Texten. Im Tandem des MAEWIN Projekts wird sie verantwortlich sein für die Implementierung einer maschinellen Entscheidungsunterstützung. Dieses Empfehlungssystem soll insofern die Stärkung von Demokratie in wohlfahrtsstaatlichen Institutionen unterstützen, dass es a) relevante Informationen aus einer Datenbank von Dokumentationen bezieht. Dies sind historische Daten darüber, mit welchen Zielen und mit welchen Folgen ähnliche Entscheidungen in der Vergangenheit getroffen wurden. Außerdem soll es b) zur Transparenz des Entscheidungsprozesses beitragen. Transparent bedeutet, dass alle Beobachter die Entscheidung nachvollziehen können, auch wenn sie nicht immer mit der Entscheidung selbst einverstanden sind. Dies soll das Empfehlungssystem gewährleisten, indem es mögliche Pro- und Contra-Argumente im Zusammenhang mit einer Empfehlung aufzeigt.

Diana Schneider studierte zunächst Philosophie und Germanistik an der Universität Potsdam (B.A.). Anschließend war sie Studentin im interdisziplinären Studiengang Kultur und Technik mit Schwerpunkt Technik- und Technologieentwicklung im öffentlichen Diskurs an der Brandenburgischen Technischen Universität Cottbus-Senftenberg. In ihrer Masterarbeit verband sie Honneths Anerkennungstheorie mit der Behandlung von chronischen, nicht spezifischen Rückenschmerzen und analysierte die (institutionellen) Anerkennungsstrukturen von Patientinnen und Patienten in ihrem Behandlungsumfeld. Von August 2015 bis Juli 2017 war sie als wissenschaftliche Hilfskraft im BMBF-Forschungsprojekt „PartNIPD: Partizipation in technisch-gesellschaftlichen Innovationsprozessen mit fragmentierter Verantwortung: das Beispiel nicht-invasive Pränataldiagnostik“ am Institut Mensch, Ethik und Wissenschaft in Berlin tätig. Im Tandem des MAEWIN-Projekts wird Diana Schneider für die sozialwissenschaftliche Expertise des interdisziplinären Projekts zuständig sein und sich u.a. mit Fragen der Agency von Big-Data-Technologien und dem Zusammenhang von Transparenz und Legitimität von Entscheidungen auseinandersetzen. Ziel der Auseinandersetzung wird es sein, eine Exploration bezüglich der Chancen und Risiken von maschinellen Entscheidungssituationen im Feld Sozialer Dienste zu erhalten sowie dort Regulierungsbedarfe zu erkennen, wo Grundwerte der Demokratie, des Datenschutzes und der Privatheit durch den Einsatz dieser maschinellen Entscheidungsunterstützungen gefährdet werden (könnten).

Beteiligte

Udo Seelmeyer

Prof. Dr. Philipp Cimiano

Angelika Maier

Diana Schneider, M.A.

Nina Adams

Related Articles

Allgemein
DC Shoes cNxCNW
HiTime Damen Pantoffeln Braun Braun Größe 355 ES06z

Willkommen zur deutschen Version von WordPress. Dies ist der erste Beitrag. Du kannst ihn bearbeiten oder löschen. Und dann starte mit dem Schreiben!

Themenübersicht