Bericht der Tagung „Evaluierung der zivilen Krisenprävention: Mit welchen Maßstäben bewerten wir ihren Erfolg?“ 7.-9. Dezember 2012
Inzwischen ist weithin akzeptiert, dass Krisenprävention und Konfliktbeilegung zivile Mittel erfordern. In der aktuellen außen- und sicherheitspolitischen Diskussion werden militärische Zugänge lediglich als Maßnahmen beurteilt, die im Kontext gewalttätiger Auseinandersetzungen für ausreichende Sicherheit sorgen können, um den Einsatz friedensschaffender ziviler Mittel und Strategien zu ermöglichen.
Eine thematische Evaluation ziviler Mittel liegt bislang nur für den zivilen Friedensdienst vor. Daraus geht hervor, dass dieses prinzipiell vielversprechende Instrument bisher nur in wenigen Fällen strategische Breitenwirkung erzielen konnte, da der Einsatz einzelner Friedensfachkräfte zur Unterstützung individueller Organisationen in der Regel nur insulare Veränderungen bewirken kann. Abhilfe schaffen sollen nun gemeinsam von staatlichen Auftraggebern und nichtstaatlichen Friedensdiensten zu entwickelnde Länderstrategien.
Für andere Bereiche zivilen Engagements fehlen umfassende thematische Evaluationen gänzlich. Es mangelt an präzisem Wissen über die Wirkungsweisen und Wirksamkeit der Instrumente. Deren Evaluierung, die jetzt auf der politischen Agenda steht, kann zu einer Klärung beitragen, was mit dem eingesetzten Instrumentarium erreicht wird.
Die Loccumer Tagung sollte den Rahmen für eine solche Evaluierung in drei Schritten abstecken:
- Was können wir überhaupt von der Evaluierung der zivilen Krisenprävention, Konfliktbearbeitung und Friedenskonsolidierung erwarten? Dafür sollten Wirkungsweise und Wirksamkeit des zivilen Instrumentariums aus den Perspektiven von Politik, Zivilgesellschaft und Regierung befragt und diese miteinander vermittelt werden.
- Was müsste evaluiert werden und was lässt sich de facto evaluieren? Das sollte aufgrund entsprechender Erfahrungen deutscher und internationaler thematischer Evaluierungen geprüft werden.
- Welche Maßstäbe sind an die unterschiedlichen Bereiche der zivilen Konfliktbearbeitung anzulegen?
Evaluierung und Wirkungsannahmen
Schnell wurde klar, dass die Diskussionen um eine deutsche außenpolitische Strategie und die Evaluierung eng verwoben sind. Üblicherweise messen Evaluierungen die Erreichung von vorformulierten Zielen und strategischen Absichten. Mangels einer umfassenden und zugleich konkreten Strategie für diesen Bereich können Erfolgskriterien der Krisenprävention und Konfliktbearbeitung aber nicht direkt aus einem vorhandenen Strategiedokument abgeleitet werden. Der ursprüngliche Plan, solche Maßstäbe – quasi nacheilend – unter den beteiligten Akteuren in Arbeitsgruppen zu erarbeiten, wurde in der Tagung nur teilweise verfolgt, da zunächst grundsätzlichere Klärungen nötiger schienen und damit im Vordergrund standen. Insbesondere ist Klarheit darüber erforderlich, was die angestrebte Evaluierung für die derzeitige Debatte über eine künftige friedens- und sicherheitspolitische Strategie leisten kann und soll. Andreas Heinemann-Grüder vom Bonner Konversionszentrum beschrieb das Paradox treffend: „Wir haben keine Strategie, wollen sie aber evaluieren, um zu besseren Strategieelementen zu kommen.“
Trotz des strategischen Vakuums gibt es zahlreiche Annahmen über die Mittel und Ziele deutscher Krisenprävention, Konfliktbearbeitung und Friedenskonsolidierung sowie der Wirkungsweisen ihrer Instrumente. Aus Sicht eines erfahrenen Militärstrategen, der in den letzten zwei Jahren für deutsche Auslandseinsätze zuständig war, stellte Oberst René Leitgen fest, dass das Ziel des deutschen Konzepts der Vernetzten Sicherheit state-building oder besser nation-building sei. Dabei sei die physische Sicherheit nur ein Aspekt, viel wichtiger seien die zivilen Aspekte, für die das Militär nur eine subsidiäre, nachgeordnete Aufgabe übernehmen könne. Der Vorsitzende des Unterausschusses für Zivile Krisenprävention und Vernetzte Sicherheit, Joachim Spatz, bekräftigte das Nebeneinander von militärischen und zivilen Mitteln in einem gemeinsamen Instrumentenkasten gleichberechtigter Handlungsoptionen. Daher spreche der Unterausschuss nun auch nicht mehr von vernetzter Sicherheit, sondern vielmehr von vernetztem Handeln. Während diese Einigkeit über die Breite des Instrumentariums als eine allgemein akzeptierte Annahme gelten kann, besteht bei der inhaltlichen Definition Ziviler Krisenprävention noch Nachholbedarf. So stellte der grüne Haushälter Sven-Christian Kindler fest, dass es im Bundeshaushalt keine einheitliche Definition für Mittel der zivilen Krisenprävention gäbe. Eine solche einheitliche Definition sei für alle Ressorts erforderlich; allerdings wollte Kindler zivile Krisenprävention als einen exklusiv nicht-militärischen Ansatz verstanden wissen, da das Militär nach einer anderen Logik handele.
Joachim Spatz schlug umfassende Einsatzbewertungen vor, die sich daran orientierten, was man sich von einem Einsatz versprochen habe. Für den Afghanistaneinsatz läge damit die Meßlatte sehr hoch, weil man viel zu anspruchsvoll gestartet sei. Wenn man Afghanistan evaluieren möchte, dann sollten ganz klar Rahmen und Ziele der Evaluierung festgelegt werden und ein wohlüberlegtes Erweiterungsmanagement betrieben werden, mahnt Thania Paffenholz, die die Evaluierung des Zivilen Friedensdienstes durchgeführt hatte. Gleichzeitig warnte sie davor, den Afghanistaneinsatz als Fallbeispiel für die Strategiebildung auszuwerten.
Weniger explizit sind die Annahmen über die Wirkungsweisen der eingesetzten Instrumente. Daher forderte die Referatsleiterin für Frieden und Sicherheit im BMZ, Christine Toetzke, eben diese Wirkungsannahmen zu überprüfen. In ihrer Erfahrung würden angestrebte Ziele oft zu ambitioniert gesteckt und Risiken unterschätzt. Zugleich fehlten oft Konflikt- und Kontextanalysen. Der Relevanz von Wirkungshypothesen für die Evaluierung stimmte auch Wolfgang Heinrich vom Evangelischen Entwicklungsdienst zu. So würden implizite Theorien unseres Handelns oft nicht entpackt, aber eben diese Annahmen müssten explizit und überprüfbar gemacht werden. So sei das von Leitgen skizzierte Konzept der Vernetzten Sicherheit von der Theorie geleitet, dass in heißen Konflikten das Militär zunächst für Sicherheit sorgen müssen, damit zivile Akteure dann Gelegenheit bekämen Frieden zu schaffen. Als Gegenbeispiel führte er Somaliland an, wo ein Friedens- und Verständigungsprozess erfolgreich gewesen sei, ohne dass vorher die Sicherheitslage bereinigt worden wäre. Zu überprüfen ist dann der von Oberst Leitgen eingebrachte Leitsatz der Vernetzten Sicherheit „Das Militär kann nur Zeit kaufen, bis andere Instrumente und Mittel greifen“ und die daraus resultierende Handlungsorientierung, dass es von Anfang an Ziel sein müsse, Synergien unter den verschiedenen Akteuren herzustellen. Für Leitgen ist es klar, dass auch der eigene Anspruch, was geleistet werden solle, zu hinterfragen ist. Dazu müsste auch der militärische Anteil von der zivilen Seite mit evaluiert werden. Thania Paffenholz legte nahe, zu untersuchen, wo die Wirkungsannahmen der Akteure herkämen und ob sie Evidenz-basiert seien. Trotz guter Analysekapazität und guter Informationsbasis würden immer die gleichen Dinge (und Fehler) gemacht. Eine Erklärung könnte sein, dass alle die gleichen Standard-Wirkungshypothesen hätten und umsetzten.
Der Geschäftsführer der Deutschen Stiftung Friedensforschung Thomas Held stellte fest, dass es um die Evaluierung politischer Teilstrategien und ihrer Annahmen gehen müsse, also um größere Zusammenhänge und Prozessanalysen. Damit handele es sich um einen hoch-sensiblen politischen Prozess, wie Thania Paffenholz feststellte. Der erfordere eine politische Risikoeinschätzung und geeignete Maßnahmen zu seiner Absicherung. Das Ziel des Prozesses müsse die Strategie sein und auf dem Weg dorthin machten gezielte Evaluierungen Sinn. Im Zentrum gehe es um einen Reformprozess und Strukturveränderungen, nicht die Erstellung eines Strategiedokuments. Ebenfalls reiche nicht die Verbesserung von Einzelaktionen; es gehe um die Etablierung eines strategischen Rahmens, der helfe, politische Verantwortlichkeiten zu schaffen. Letztendlich müsse es nicht nur um Strategiebildung und Evaluierung gehen, sondern daraus auch ein Strategiemanagement resultieren.
Angelika Spelten forderte, dass die Evaluierung den Anspruch haben müsse, unterschiedliche politische Ebenen zu beleuchten. So stelle sich zum Beispiel die Frage, inwiefern sich der Aktionsplan Zivile Krisenprävention in der MENA-Strategie widerspiegele. Im gleichen Kontext ließe sich untersuchen, ob sich die vorhandene Infrastruktur (ZIF etc.) im Fallbeispiel MENA bewährt habe. Philipp Rotmann, der beim Berliner Global Public Policy Institute Lernprozesse in UN Friedensmissionen erforscht hat, warnte, dass wir unsere Einflussmöglichkeiten auf andere Gesellschaften nicht überschätzen dürften. Man brauche aber nicht unbedingt den Ansatz verfolgen, den gesamten strategischen Überbau untersuchen zu wollen. Probleme mit Rahmenbedingungen und Strukturen würden auch bei Fallstudien automatisch mit auf den Tisch kommen.
Evaluierung zur Projektsteuerung
Obwohl sich die Tagungsdiskussionen trotz der Verwendung des Begriffes „Evaluierung“ nicht auf die routinierte Wirkungseinschätzung von einzelnen Projekten oder Programmen , beziehen sollten, sondern sich mit der Beurteilung des Politikfeldes insgesamt auseinandersetzen sollten, bezogen sich viele Beiträge weniger auf den strategischen und konzeptionellen Überbau, als vielmehr auf die Umsetzung von Programmen und deren Umsetzungsstrukturen. Gründe dafür liegen zunächst in der Verwendung des Begriffs „Evaluierung“, der gerade im Bereich der Entwicklungszusammenarbeit fest besetzt ist, an den umfassenden Erfahrungen mit Projekt- und Programmevaluierungen, aber sicher nicht zuletzt an einer Sicht auf das operative Geschäft, das selten Gelegenheit zur Reflektion seiner Voraussetzungen bietet. Wenn die angestrebte Evaluierung eben diese Voraussetzungen, Zielsetzungen und Wirkungsannahmen hinterfragen soll, bietet es sich an, den Begriff „Evaluierung“ durch einen neutraleren zu ersetzen.
Besonders deutlich wurde die operative Orientierung in den Beiträgen der Beauftragten für Zivile Krisenprävention, Ina Lepel. Für das Auswärtige Amt stelle sich vorrangig die Frage, was man bewirke und was sich künftig besser machen ließe. Dafür müsse die Evaluierung so angelegt werden, dass sie einen kontinuierlichen Lernprozess unterstützen könne. Das entspräche auch dem Aktionsplan Zivile Krisenprävention, der regelmäßige Evaluierungen fordere. Allerdings erforderten Evaluierungen zur Qualitätssicherung und –entwicklung, dass man Fallstudien laufender Projekten durchführe, deren Ergebnisse schnell verfügbar sein müssten und noch zur Nachsteuerung derselben Projekte eingesetzt werden könnten. Bei Projektlaufzeiten von maximal drei Jahren führe das zu einem Zielkonflikt mit der Empfehlung des Unterausschusses, der auf eine umfassende Evaluierung setze. Die Prozessanalyse einer einmaligen großen Evaluierung sei wahrscheinlich langsamer als die kontinuierliche Anpassung der Prozesse, die das Auswärtige Amt anstrebe. Das Auswärtige Amt wolle pro Jahr ein größeres Projekt evaluieren. Wichtig seien dabei gute und präzise Berichte. Zugleich sah Frau Lepel auch den Bedarf, Wirkungen und Outcomes von Projekten zu beurteilen, die sich oft erst viel später einstellten und evaluieren ließen. Zur Überprüfung von Wirkungsannahmen seien aber auch diese wichtig. Die Evaluierung der humanitären Hilfe habe den Bedarf nach einer Strategie festgestellt, auch wenn das nicht der primäre Untersuchungsauftrag gewesen sei.
Ebenfalls aus operativer Sicht warnte Frau Toetzke davor, das Rad neu erfinden zu wollen. So gäbe es Erfahrungen für geberübergreifende Evaluierungen im Sudan und Kongo. Über das Eval Net der OECD sei das Impact-Assessment Nordafghanistan verfügbar, das als die Auswertung schlechthin von 40 Vorhaben gelte. Man dürfe also nicht nur die deutsche Brille aufsetzen, sondern müsse auch fragen, was man von anderen lernen könne. Die OECD DAC Guidance zu Evaluierung gäbe die Maßstäbe für eine gute Evaluierung vor. Es gelte zu prüfen, ob (1) Maßnahmen relevant seien (haben sie einen Beitrag zur Friedensförderung geleistet?), ob (2) sie effektiv seien (wurden die gesteckten Ziele erreicht?), welche (3) absichtlichen und unabsichtlichen Wirkungen sie entfalten hätten, ob (4) ihre Wirkungen nachhaltig sein, und schließlich, ob sie koordiniert und kohärent mit anderen Aktivitäten wirken würden.
Evaluierung und Strukturentwicklung
Neben der außenpolitischen Strategiebildung und operativen Erwartungen an die Evaluierungsergebnisse kreisten die Tagungsdiskussionen um den Reformbedarf mit Bezug auf die deutschen Institutionen und Strukturen zur Krisenprävention, Konfliktbearbeitung und Friedenskonsolidierung. Von vielen werden die derzeit bestehenden Institutionen (Ressortkreis Zivile Krisenprävention, Beirat Zivile Krisenprävention, etc.) als dringend verbesserungswürdig gesehen. Dementsprechend erhoffen sie sich von der Evaluierung Hinweise, wie die Strukturen verbessert werden könnten.
Oberst Leitgen bezeichnete diese Sicht als eine, die eine Bewertung nicht nur der praktischen Anwendung, sondern auch des Überbaus vornehmen würde. Damit wäre sie wieder eng mit der Strategiediskussion verwoben, da sich der Überbau aus den Zielbestimmungen und den Umsetzungsstrukturen konstituiere. Eine solche Überbau-Evaluierung sei bedeutend ambitionierter und für die Regierungsressorts sicherlich auch unbequemer als eine Beurteilung der praktischen Anwendung. Dafür spräche, dass sich das Denken in fiskalpolitischen Einzelplänen und die Versäulung von Entscheidungsstrukturen für den Comprehensive Approach als äußerst problematisch erwiesen hätten. Unterstützung erhielt er vom Unterausschussvorsitzenden Spatz, der sich davon konkrete Ergebnisse bzw. Handreichungen für die Ausschussarbeit erhofft.
Eine solche Evaluierung des Orchesters, wie sie Bernhard Müller vom Forum ZFD bezeichnete, müsse die Gesamtheit der Instrumente und ihrer Wirksamkeit untersuchen. Für Klaus Liebetanz sollte dabei die Wirksamkeit der Instrumente auf der Makro-Ebene im Zentrum des Interesses stehen. Das könnte zum einen die Begründung für den Zusammenhang einzelner Maßnahmen liefern, die Philipp Rotmann forderte; zum anderen könnte die Evaluierung so auch zu der von Leitgen eingeforderten ressortübergreifenden Analysefähigkeit beitragen. Benötigt würden Mechanismen zur Analyse oberhalb einzelner Einsätze.
Dabei kann die Evaluierung aber nicht Ersatz für politische Entscheidungen sein. Wolfgang Heinrich warnte vor der Gefahr, dass Entscheidungen eher durch Verwaltungsabläufe als durch die Politik getroffen würden. Sinnvolle Evaluierung müsse vorwärtsgewandt sein und die Analyse für künftige Strategieentwicklung nutzbar machen. Ein gutes Beispiel dafür sei die Reflexion, die zum „Do No Harm“-Prinzip geführt habe. Gute Beispiele für solche partizipative Prozesse seien auch „Reflecting on Peace Practice“ und das Listening-Projekt.
Thania Paffenholz ist skeptisch, dass eine Evaluierung die richtige Antwort auf das Problem ist. Wenn es darum ginge, eine deutsche Sicherheits- und Friedensstrategie zu entwickeln, dann sei ein Strategiebildungsprozess die geeignete Antwort sein. Die Evaluierung könne nur ein Teil davon sein. Daran schließe sich die Frage an, was evaluiert werden soll. Da das Problem nicht mangelndes Geld, sondern sein strategischer Einsatz sei, dürfe man nicht nur einen Teilbereich evaluieren, sondern müsse den strategischen Rahmen anschauen. Das schließe eine intensive Betrachtung dessen ein, was die unterschiedlichen relevanten Ministerien machten. Sie legt nahe, dass es auf das politische Commitment ankomme. Dafür reiche die Etablierung eines Ressortkreises auf Staatssekretärebene allein nicht aus. Hier biete sich eine Vorstudie an, um festzustellen, was die Hauptblockaden für effektive Krisenprävention, Konfliktbearbeitung und Friedensförderung sind. Es stelle sich auch die Frage, wie es um die Verankerung in den Ministerien bestellt sei und wie die möglicherweise erforderliche Kulturveränderung zu bewerkstelligen sei.
Neben strukturellen Veränderungen ist auch die Setzung deutscher thematischer Schwerpunkte erforderlich. Ein solches Profil könne auch durch eine Evaluierung vorbereitet werden, um dann Kapazitäten und Expertise in den Schwerpunktbereichen aufzubauen, so Paffenholz. Ina Lepel zählt aus Sicht des Auswärtigen Amtes die Unterstützung in Transformationsprozessen und bei der Vergangenheitsbewältigung zu Schwerpunkten im deutschen Profil. Dabei sei der deutsche Ansatz für die zivile Krisenprävention und Konfliktbearbeitung immer partnerschaftlich und nachfrageorientiert. Der Anspruch deutscher Politik sei präventives politisches Engagement und dort müsse man weiter kommen, mahnte Wolfgang Heinrich. Angelika Spelten von der Arbeitsgemeinschaft Frieden und Entwicklung fragte, wie sinnvoll Demokratieförderung sei. Die Schwerpunktsetzung fußt bislang auf normativen Orientierungen und Wirkungsannahmen. Eine Evaluierung der Wirksamkeit von Maßnahmen in unterschiedlichen Bereichen könnte einen wichtigen Beitrag leisten durch gezielte Schwerpunktsetzung die Effektivität deutscher Krisenprävention, Konfliktbearbeitung und Friedensförderung zu steigern.
Evaluierung und Lernen
In der deutschen Fachdiskussion findet die thematische Evaluierung der EU-Maßnahmen im Bereich Konfliktprävention und Friedensförderung (Conflict Prevention and Peace Building) derzeit viel Beachtung. Edwin Clerckx, der bei ADE für die Durchführung dieser Evaluierung zuständig war, konnte viele Ratschläge für die praktische Durchführung der angestrebten deutschen Evaluierung auf den Weg geben, dämpfte aber auch Erwartungen bezüglich der Auswirkungen einer solchen Studie. Der Auftrag für diese Studie sei aus der europäischen Verwaltungsroutine heraus erfolgt zur Überprüfung von Leistungen der Kommission zur Konfliktprävention und Friedensförderung. Die Komplexität des Untersuchungsgegenstandes sei den Auftraggebern erst im Verlauf der Evaluierung deutlich geworden. Ernüchternd war nicht nur das Ergebnis, dass es in der EU nicht zum angestrebten Paradigmenwechsel gekommen sei, Konfliktprävention und Friedensförderung als Querschnittsaufgabe mit Entwicklung zu verknüpfen, sondern auch die Einsicht, dass die Studie primär zur Erfüllung von Verwaltungsmaßgaben und damit für die Schublade erstellt worden sei.
Für Philipp Rotmann ist es daher wichtig, die Rechenschaftsfunktion einer Evaluierung mit weiteren Zielen zu verknüpfen. So sollte die deutsche Evaluierung neben Legitimität für den Reformprozess auch primär zum Lernen unter den beteiligten Akteuren beitragen. Das setze natürlich Lernbereitschaft und Veränderungswillen voraus, könne aber auch die Etablierung eines funktionierenden Lernzyklus erforderlich machen. Ein Ergebnis könnte die Entwicklung eines gemeinsamen Verständnisses sein, worum es ginge, das sich Leitgen wünschte. Soldaten seien schließlich nur ein Teil des gesamten Puzzles.
Reformdruck könne auch ohne Evaluierung erzeugt werden, so Rotmann; ein gutes Beispiel dafür sei der Brahimi-Report, der mit prominenter Besetzung in weniger als einem halben Jahr wirksame Handlungsempfehlungen für das UN-Peacekeeping entwickelt habe. Im Interesse eines wirksamen Lernprozesses dürfte daher Unabhängigkeit der Evaluierung nicht zum Fetisch werden; sinnvoll sei hingegen ein partizipativer Ansatz, der Ministerien und Zivilgesellschaft mit einbezieht.
Thania Paffenholz schlägt daher ein Evaluierungsdesign vor, das das Lernen in Begleitgruppen ermöglicht. Geleitet werden sollte der Prozess durch eine Steuerungsgruppe mit Akteuren und relevanter Expertise unter Einbeziehung der Zivilgesellschaft, die aber nicht zu breit aufgestellt sein dürfte. Neben ihrer Verantwortlichkeit für das Prozessmanagement würde diese Gruppe auch als Referenzgruppe von Experten dienen. Die Steuerungsgruppe müsse entscheiden, was und wie zu evaluieren sei. Zur Evaluierung grundlegender Mechanismen dürfe man sich nicht auf Projekte und Mittel des Auswärtigen Amtes konzentrieren, sondern müsse auch Mittel des BMZ mit K-Kennung und relevante Aktivitäten anderer Ressorts einbeziehen. Die Auswahl von Fallstudien als letzter vorbereitender Schritt sollte auch durch ein Auswahlgremium erfolgen. Ein solches Vorgehen würde es ermöglichen Instrumentenklassen und ihre Wirkungen, jedoch nicht einzelne Maßnahmen zu untersuchen, was Rotmann für wichtig hält. Ebenso gab er zu bedenken, dass man die Evaluierung nicht zu einer deutschen Nabelschau machen dürfe; schließlich seien die wichtigsten deutschen Beiträge multilateral.
Christine Toetzke mahnte, dass es wichtig sei, das Feld abzugrenzen. Bei zu breiter Anlage bestände die Gefahr, dass die Evaluierung zu banal würde. Auch brauche man eine verlässliche Datensammlung; also sei es unerlässlich vor Ort zu untersuchen.
Die Steuerungsgruppe müsse entscheiden, was in diesem Prozess öffentlich, und was nicht-öffentlich sei. Die Gefahr öffentlichen Drucks sei, dass es weniger Chancen gäbe, Lernerfahrungen zu machen, zugleich könnte so aber mehr Legitimität für Reformen erzeugt werden. Wichtig sei in jedem Fall ein Follow-Up Design, um das Lernen aus den Evaluierungsergebnissen zu unterstützen, so Paffenholz.
Die Einsetzung einer Steuerungsgruppe entlastet die Politik, Leitlinien zu formulieren. Ein Prozess, zu dem der Unterausschuss kapazitätsbedingt nicht in der Lage gewesen sei, wie Joachim Spatz bemerkte. Da die Ergebnisse und Konsequenzen auf politische Unterstützung angewiesen sind, ist es umso wichtiger, den Evaluierungsauftrag an politisch relevanter Stelle zu verankern. Wenn es zu einem parlamentarischen Untersuchungsauftrag käme, hält der Vorsitzende des Beirates Zivile Krisenprävention, Winfried Nachtwei, es für wichtig, dass nicht nur der Unterausschuss für Zivile Krisenprävention die Evaluierung beauftragt, sondern dass er sich der Unterstützung des Auswärtigen Ausschusses und des Haushaltsauschusses versichert. Sollte der Auftrag aus der Exekutive kommen, sollte wahrscheinlich nur ein einzelnes Ministerium Auftraggeber sein, mutmaßte Rotmann. Für den Fall der Beauftragung einer ressortübergreifenden Evaluierung sah Ina Lepel für das Auswärtige Amt eine koordinierende Rolle aufgrund seiner Rolle im Ressortkreis Zivile Krisenprävention.
Thomas Held stellte fest, dass der Unterausschuss hinter der Evaluierung stände. Daher gelte es, jetzt Pflöcke einzuschlagen. 20 Jahre Erfahrungen mit Peacebuilding seien eine gute Zeit für ein Resümee. Dazu gäbe es viele Einzelergebnisse, aber es fehle noch an einer politischen relevanten Synthese. Hier sei die Wissenschaft dringend gefordert. Die Wissenschaft könne auch wichtige begleitende Forschung leisten und den Evaluierungsprozess mit Standards, Kriterien und Methoden unterstützen. Für die Strategieentwicklung könnte der Planungsprozess begleitet und der State-of-the-Art aufbereitet werden. Die DSF habe ein Interesse daran, den Transfer und Dialog zwischen Wissenschaft und Praxis zu unterstützen. Allerdings könnte die Stiftung die Evaluierung nicht direkt fördern, da es sich nicht um unabhängige Forschung handele. Zudem läge der Finanzierungsbedarf jenseits von Volumina, die die DSF bewältigen kann.
Evaluierung und Strategiediskussion
Die nun an Fahrt gewinnende Debatte über eine deutsche friedens- und sicherheitspolitische Strategie beschäftigte die Tagungsteilnehmer nicht nur mit Bezug auf die daraus resultierenden Anforderungen an den Evaluierungsprozess, sondern auch mit Blick darauf, wie sich diese Diskussion selbst befördern ließe.
Joachim Spatz berichtete, dass das Auswärtige Amt der Stiftung Wissenschaft und Politik den Auftrag erteilt habe, unter Mitwirkung verschiedener Stakeholder eine Vorlage für die deutsche Sicherheitsstrategie zu erarbeiten. Der Bezugsrahmen für diesen Auftrag sei es, die künftige deutsche Außenpolitik zu skizzieren. Diese nationale Strategie solle dann in die EU eingespeist werden. Paffenholz mahnte, dass die bisherigen Vorarbeiten für die Strategiedebatte nicht ausreichten. Bei dieser Debatte gelte es gut zu überlegen, wie sie zu führen sei und dafür müsse sie gut vorbereitet sein. Welche Stellen sollen den Diskurs anstoßen? Die Initiative müsse von vielen Seiten kommen.
Angelika Speltens Fragen, wer die Strategiebildung anschieben könne und welchen Beitrag der Unterausschuss zur Initialisierung internationaler Prozesse leisten könne, fanden keine direkten Antworten, aber die Diskussion macht deutlich, dass der Unterausschuss eine zentrale Rolle spielen müsse und dass darüber hinaus auch von vielen anderen Beiträge zur Strategiedebatte kommen müssten. Rotmann hält die Erteilung eines entsprechenden Auftrags an die Bundesregierung durch den Bundestag für eine mögliche Option. Die Frage sei, ob man über das hinausgehen wolle, was derzeit sowieso schon gäre?
Neben der Initiierung stellt sich auch die Frage nach dem Zeitrahmen. So stellte Jan-Thilo Klimisch von der Plattform Zivile Konfliktbearbeitung in den Raum, ob die Strategie rasch erarbeitet werden solle, ob das eher eine Aufgabe sei, die der Unterausschuss in der ersten Hälfte der nächsten Legislaturperiode angehen könne. Paffenholz hält es in jedem Fall für wichtig, dass eine Deadline für die Strategiebildung gesetzt würde – ganz gleich, ob der Prozess ein oder fünf Jahre dauern solle. Zudem müsse geklärt werden, wer den Prozess leite. Die Prozessleitung müsse dann auch dafür sorgen, dass dem Strategiedokument ein konkreter Umsetzungsplan folge.
Evaluierung und Politik
Diskussionen im Kontext deutscher Krisenprävention werden oft sehr technisch geführt. Auch die Überlegungen hinsichtlich der Evaluierung werden von solchen technischen Aspekten dominiert; gleichzeitig besteht die Gefahr, dass die Evaluierung die im Raum stehenden politischen Fragestellungen kaschiert. So machte Ina Lepel deutlich, dass die Strukturdiskussion eine politische sei. Dafür bringe eine Evaluierung nichts. Spatz merkte an, dass keinerlei instrumentelles Denken vor den politischen Entscheidungen bewahren würde, welche Instrumente zum Einsatz gebracht würden. Kindler sieht auch den Bedarf nach politischer Führung – eben die habe im Fall Afghanistan gefehlt. Daher müsse auch die Debatte eine Politisierung erfahren, so Paffenholz. Man müsse von der Diskussion über die Toolbox weg hin zu einer Politischen, die frage, was wir wollten. Das sei eine echte Strategiediskussion. Schließlich gehe es um Orientierung auf einer anderen Ebene: „wie wird Politik gemacht?“