Ethik der KI-Anwendung in der Bildung: Chancengleichheit und Datenschutz

Künst­li­che Intel­li­genz (KI) revo­lu­tio­niert zuneh­mend die Bil­dungs­land­schaft, birgt aber auch ethi­sche Her­aus­for­de­run­gen. Die­ser Arti­kel beleuch­tet vor allem die Not­wen­dig­keit von Siche­rungs- und Schutz­maß­nah­men, um den ver­ant­wor­tungs­vol­len Ein­satz von KI in Bil­dungs­ein­rich­tun­gen zu gewähr­leis­ten. Dabei wer­den zen­tra­le ethi­sche Fra­ge­stel­lun­gen wie Daten­schutz, Trans­pa­renz, Fair­ness und die mensch­li­che Auf­sicht the­ma­ti­siert, um eine posi­ti­ve Inte­gra­ti­on von KI zu för­dern und Risi­ken zu mini­mie­ren.

Die ethischen Grundlagen von KI in der Bildung

Der Ein­satz von Künst­li­cher Intel­li­genz (KI) im Bil­dungs­be­reich wirft grund­le­gen­de ethi­sche Fra­gen auf, die sorg­fäl­tig abge­wo­gen wer­den müs­sen. Es gilt, Kern­wer­te zu eta­blie­ren, die den Umgang mit die­ser trans­for­ma­ti­ven Tech­no­lo­gie lei­ten. Hier­zu zäh­len ins­be­son­de­re Auto­no­mie, Nicht­schä­di­gung, Gerech­tig­keit und Trans­pa­renz.

Die Auto­no­mie bezieht sich auf die Fähig­keit von Ler­nen­den und Leh­ren­den, eige­ne Ent­schei­dun­gen zu tref­fen und den Lern­pro­zess selbst­be­stimmt zu gestal­ten. KI-Sys­te­me dür­fen die­se Ent­schei­dungs­frei­heit nicht ein­schrän­ken, son­dern soll­ten sie im Ide­al­fall erwei­tern. Dies bedeu­tet, dass KI-Tools Ler­nen­den Wahl­mög­lich­kei­ten bie­ten und Leh­ren­den unter­stüt­zen, anstatt ihre Rol­len zu erset­zen oder zu domi­nie­ren. Die Nicht­schä­di­gung (auch Non-Mal­e­ficence genannt) ist ein zen­tra­les ethi­sches Gebot. KI-Anwen­dun­gen dür­fen weder Ler­nen­den noch Leh­ren­den phy­si­schen, psy­chi­schen oder sozia­len Scha­den zufü­gen. Dies schließt die Ver­mei­dung von algo­rith­mi­schem Bias, Dis­kri­mi­nie­rung und emo­tio­na­ler Belas­tung durch unan­ge­mes­se­ne KI-Inter­ak­tio­nen ein.

Die Gerech­tig­keit (oder Fair­ness) for­dert, dass KI-Sys­te­me allen Ler­nen­den glei­che Chan­cen und fai­re Behand­lung zuteil­wer­den las­sen. Dis­kri­mi­nie­rung auf­grund von Geschlecht, Her­kunft, sozia­lem Sta­tus oder ande­ren Merk­ma­len muss durch ent­spre­chen­de Design­ent­schei­dun­gen und fort­lau­fen­de Über­wa­chung aus­ge­schlos­sen wer­den. Trans­pa­renz schließ­lich ist essen­zi­ell, um Ver­trau­en in KI-Sys­te­me auf­zu­bau­en. Es muss nach­voll­zieh­bar sein, wie KI-Ent­schei­dun­gen zustan­de kom­men, ins­be­son­de­re wenn die­se Ein­fluss auf Lern­ergeb­nis­se oder Bewer­tun­gen haben. Die zugrun­de­lie­gen­den Algo­rith­men und die Art der Daten­ver­ar­bei­tung soll­ten, soweit mög­lich, offen­ge­legt wer­den.

Die­se ethi­schen Prin­zi­pi­en sind kei­ne blo­ßen theo­re­ti­schen Kon­struk­te, son­dern bil­den das Fun­da­ment für eine ver­trau­ens­vol­le und effek­ti­ve Inte­gra­ti­on von KI in Bil­dungs­ein­rich­tun­gen. Sie hel­fen dabei, einen Rah­men zu schaf­fen, der sowohl die Vor­tei­le der Tech­no­lo­gie nutzt als auch ihre poten­zi­el­len Gefah­ren für die Inte­gri­tät des Bil­dungs­pro­zes­ses und das Wohl­be­fin­den der Betei­lig­ten mini­miert. Die kon­ti­nu­ier­li­che Aus­ein­an­der­set­zung mit die­sen Wer­ten ist uner­läss­lich, um sicher­zu­stel­len, dass KI als Werk­zeug dient, das mensch­li­che Fähig­kei­ten erwei­tert und Bil­dung für alle zugäng­li­cher und gerech­ter macht.

KI-Anwendungen im Bildungssektor: Chancen und Risiken

Die Bil­dungs­tech­no­lo­gie wird durch den Ein­satz von KI-Anwen­dun­gen tief­grei­fend ver­än­dert. Platt­for­men für per­so­na­li­sier­tes Ler­nen und adap­ti­ve Lern­sys­te­me sind nur eini­ge Bei­spie­le, wie KI das Lern­erleb­nis indi­vi­dua­li­sie­ren und opti­mie­ren kann. Die­se Sys­te­me ana­ly­sie­ren die Lern­fort­schrit­te, Stär­ken und Schwä­chen ein­zel­ner Schü­ler und pas­sen dar­auf­hin Lern­in­hal­te, Tem­po und Schwie­rig­keits­grad an. Ziel ist es, jedem Ler­nen­den die best­mög­li­che Unter­stüt­zung zukom­men zu las­sen und Wis­sens­lü­cken früh­zei­tig zu erken­nen und zu schlie­ßen. KI kann auch bei admi­nis­tra­ti­ven Auf­ga­ben ent­las­ten, etwa durch auto­ma­ti­sier­te Beno­tung von stan­dar­di­sier­ten Tests oder durch die Erstel­lung von Lern­ma­te­ria­li­en.

Die­se tech­no­lo­gi­schen Fort­schrit­te eröff­nen erheb­li­che Chan­cen. Sie kön­nen die Effi­zi­enz von Lehr- und Lern­pro­zes­sen stei­gern, die Moti­va­ti­on der Ler­nen­den erhö­hen und den Zugang zu qua­li­ta­tiv hoch­wer­ti­ger Bil­dung erleich­tern, ins­be­son­de­re in unter­ver­sorg­ten Regio­nen. KI-gestütz­te Tuto­ring-Sys­te­me kön­nen Schü­lern jeder­zeit und über­all indi­vi­du­el­le Unter­stüt­zung bie­ten.

Dem­ge­gen­über ste­hen jedoch erheb­li­che Risi­ken, die kri­tisch beleuch­tet wer­den müs­sen. Ein zen­tra­les Pro­blem ist der Bias in Algo­rith­men. Wenn die Trai­nings­da­ten für KI-Sys­te­me unaus­ge­wo­gen sind oder bestehen­de gesell­schaft­li­che Vor­ur­tei­le wider­spie­geln, kann die KI dis­kri­mi­nie­ren­de Ergeb­nis­se lie­fern. Dies kann dazu füh­ren, dass bestimm­te Schü­ler­grup­pen benach­tei­ligt wer­den, bei­spiels­wei­se bei der Zuwei­sung von För­der­maß­nah­men oder der Bewer­tung von Leis­tun­gen.

Die zuneh­men­de Samm­lung und Ana­ly­se von Schü­ler- und Leh­rer­da­ten durch KI-Sys­te­me wirft zudem erheb­li­che Fra­gen bezüg­lich Daten­schutz und Über­wa­chung auf. Wer hat Zugriff auf die­se Daten? Wie wer­den sie gespei­chert und geschützt? Besteht die Gefahr, dass sen­si­ble Infor­ma­tio­nen miss­braucht wer­den oder Schü­ler einem stän­di­gen Über­wa­chungs­druck aus­ge­setzt sind? Der Ein­satz von KI in der Bil­dung muss daher sorg­fäl­tig abge­wo­gen wer­den, um sicher­zu­stel­len, dass die Tech­no­lo­gie dem päd­ago­gi­schen Auf­trag dient und die Grund­rech­te der Betei­lig­ten ach­tet. Die Ent­wick­lung und Imple­men­tie­rung von KI in Bil­dungs­ein­rich­tun­gen erfor­dert daher ein robus­tes Risi­ko­ma­nage­ment und kla­re ethi­sche Richt­li­ni­en, um sicher­zu­stel­len, dass die Vor­tei­le die poten­zi­el­len Nach­tei­le über­wie­gen.

Datenschutz und Datensicherheit im Kontext von KI in der Bildung

Der Ein­satz von KI im Bil­dungswesen bringt eine Flut von Daten mit sich, dar­un­ter auch hoch­sen­si­ble Schü­ler- und Leh­rer­da­ten. Der Schutz die­ser sen­si­blen Daten ist von para­moun­ter Bedeu­tung, um das Ver­trau­en in Tech­no­lo­gie und Bil­dungs­ein­rich­tun­gen zu gewähr­leis­ten und recht­li­che Vor­ga­ben ein­zu­hal­ten. Die Daten­er­he­bung, ‑spei­che­rung und ‑ver­ar­bei­tung durch KI-Sys­te­me muss trans­pa­rent, zweck­ge­bun­den und sicher erfol­gen.

Die Daten­schutz-Grund­ver­ord­nung (DSGVO) stellt den zen­tra­len recht­li­chen Rah­men dar, der auch im Bil­dungs­sek­tor Anwen­dung fin­det. Sie ver­langt expli­zit die Ein­hal­tung von Prin­zi­pi­en wie Daten­mi­ni­mie­rung, Rich­tig­keit der Daten, Spei­cher­be­gren­zung und Inte­gri­tät sowie Ver­trau­lich­keit. Für die Ver­ar­bei­tung per­so­nen­be­zo­ge­ner Daten von Min­der­jäh­ri­gen gel­ten zudem beson­de­re Schutz­vor­schrif­ten. Bil­dungs­ein­rich­tun­gen müs­sen sicher­stel­len, dass sie über eine aus­rei­chen­de Rechts­grund­la­ge für die Daten­ver­ar­bei­tung ver­fü­gen, bei­spiels­wei­se durch Ein­wil­li­gung der Erzie­hungs­be­rech­tig­ten oder durch eine recht­li­che Ver­pflich­tung.

Daten­si­cher­heit ist ein wei­te­rer kri­ti­scher Aspekt. KI-Sys­te­me sind poten­zi­el­le Angriffs­zie­le für Cyber­kri­mi­nel­le. Ein unzu­rei­chen­der Schutz kann zu Daten­lecks füh­ren, die gra­vie­ren­de Fol­gen für die betrof­fe­nen Per­so­nen haben, von Iden­ti­täts­dieb­stahl bis hin zu Dis­kri­mi­nie­rung. Dies erfor­dert den Ein­satz robus­ter tech­ni­scher Maß­nah­men wie Ver­schlüs­se­lung, Zugriffs­kon­trol­len und regel­mä­ßi­ge Sicher­heits­au­dits. Eben­so wich­tig sind orga­ni­sa­to­ri­sche Maß­nah­men, wie die Schu­lung des Per­so­nals im siche­ren Umgang mit Daten und KI-Sys­te­men sowie die Imple­men­tie­rung kla­rer Richt­li­ni­en für den Daten­zu­griff und die Daten­ver­ar­bei­tung.

Es ist essen­zi­ell, eine Balan­ce zwi­schen der Nut­zung von Daten zur Ver­bes­se­rung von Lern­pro­zes­sen durch KI und dem Schutz der Pri­vat­sphä­re zu fin­den. Dies bedeu­tet, dass KI-Sys­te­me so kon­zi­piert sein soll­ten, dass sie nur die für den jewei­li­gen Zweck unbe­dingt not­wen­di­gen Daten ver­ar­bei­ten und agg­re­gier­te oder anony­mi­sier­te Daten bevor­zugt wer­den, wo immer dies mög­lich ist. Bil­dungs­ein­rich­tun­gen sind gefor­dert, einen kla­ren und trans­pa­ren­ten Umgang mit Daten zu eta­blie­ren und die Schü­le­rin­nen und Schü­ler sowie deren Erzie­hungs­be­rech­tig­te aktiv in die­sen Pro­zess ein­zu­be­zie­hen.

  • Daten­schatz für KI nut­zen, Daten­schutz mit KI wah­ren
    Die­ses White­pa­per bie­tet wert­vol­le Ein­bli­cke in die Her­aus­for­de­run­gen und Lösungs­an­sät­ze, um die Vor­tei­le von Daten für KI zu nut­zen und gleich­zei­tig die Pri­vat­sphä­re zu schüt­zen, was für den Bil­dungs­sek­tor von hoher Rele­vanz ist.

Schutzmaßnahmen und Prävention von KI-Missbrauch in Bildungseinrichtungen

Um die posi­ti­ven Poten­zia­le von KI in der Bil­dung voll aus­zu­schöp­fen und gleich­zei­tig nega­ti­ve Aus­wir­kun­gen zu ver­mei­den, ist die Imple­men­tie­rung geziel­ter Schutz­maß­nah­men uner­läss­lich. Ange­sichts der wach­sen­den Kom­ple­xi­tät von KI-Sys­te­men und der zuneh­men­den Ver­net­zung von Bil­dungs­ein­rich­tun­gen muss pro­ak­tiv gegen KI-Miss­brauch vor­ge­gan­gen wer­den. Dies erfor­dert einen viel­schich­ti­gen Ansatz, der tech­ni­sche, orga­ni­sa­to­ri­sche und päd­ago­gi­sche Stra­te­gien kom­bi­niert, um Risi­ken wie Mani­pu­la­ti­on, Täu­schung oder die unbe­fug­te Nut­zung von KI zu mini­mie­ren.

Tech­ni­sche Schutz­maß­nah­men umfas­sen bei­spiels­wei­se die Imple­men­tie­rung robus­ter Cyber­se­cu­ri­ty-Pro­to­kol­le, um unau­to­ri­sier­te Zugrif­fe auf KI-Sys­te­me und die dar­in ent­hal­te­nen Daten zu ver­hin­dern. Dazu gehö­ren Fire­walls, Ver­schlüs­se­lungs­tech­no­lo­gien und regel­mä­ßi­ge Sicher­heits­up­dates. Dar­über hin­aus soll­ten KI-Sys­te­me so kon­zi­piert sein, dass sie gegen Mani­pu­la­ti­on und Vor­ein­ge­nom­men­heit (Bias) geschützt sind. Dies kann durch fort­lau­fen­de Über­wa­chung, Algo­rith­men zur Erken­nung von Anoma­lien und trans­pa­ren­te Feh­ler­pro­to­kol­lie­rung gesche­hen.

Orga­ni­sa­to­ri­sche Maß­nah­men spie­len eine eben­so wich­ti­ge Rol­le. Bil­dungs­ein­rich­tun­gen benö­ti­gen kla­re Richt­li­ni­en und Nut­zungs­be­din­gun­gen für KI-Tools. Schu­lun­gen für Lehr­kräf­te und admi­nis­tra­ti­ve Mit­ar­bei­ter sind ent­schei­dend, um das Bewusst­sein für poten­zi­el­le Risi­ken zu schär­fen und den siche­ren Umgang mit KI zu för­dern. Ein effek­ti­ves Risi­ko­ma­nage­ment soll­te eta­bliert wer­den, das poten­zi­el­le Schwach­stel­len iden­ti­fi­ziert und prä­ven­ti­ve Maß­nah­men defi­niert. Dies beinhal­tet auch die Fest­le­gung kla­rer Ver­ant­wort­lich­kei­ten für die Über­wa­chung und War­tung von KI-Sys­te­men.

Die Prä­ven­ti­on von Miss­brauch erfor­dert auch eine kon­ti­nu­ier­li­che Aus­ein­an­der­set­zung mit der Ent­wick­lung von KI-Tech­no­lo­gien und deren ethi­schen Impli­ka­tio­nen. Bil­dungs­ein­rich­tun­gen soll­ten sich aktiv an der Dis­kus­si­on über KI-Stan­dards und Best Prac­ti­ces betei­li­gen und mit Tech­no­lo­gie­an­bie­tern zusam­men­ar­bei­ten, um sicher­zu­stel­len, dass die ein­ge­setz­ten KI-Lösun­gen sicher und ver­trau­ens­wür­dig sind. Durch die Kom­bi­na­ti­on die­ser Maß­nah­men kön­nen Bil­dungs­ein­rich­tun­gen ein Umfeld schaf­fen, in dem KI sicher und ver­ant­wor­tungs­voll ein­ge­setzt wird, um das Ler­nen zu berei­chern, anstatt neue Risi­ken zu schaf­fen.

Förderung von Medienkompetenz und kritischem Denken im Umgang mit KI

Die zuneh­men­de Ver­brei­tung von KI-gesteu­er­ten Inhal­ten und Werk­zeu­gen in der Bil­dung erfor­dert eine star­ke Beto­nung der Medi­en­kom­pe­tenz und des kri­ti­schen Den­kens bei Ler­nen­den und Leh­ren­den glei­cher­ma­ßen. Um die Mög­lich­kei­ten von KI ver­ant­wor­tungs­be­wusst zu nut­zen und ihre Fall­stri­cke zu umge­hen, ist es uner­läss­lich, dass sich alle Betei­lig­ten mit der Funk­ti­ons­wei­se, den Poten­zia­len und den Gren­zen von KI aus­ein­an­der­set­zen. Bil­dungs­ein­rich­tun­gen spie­len hier­bei eine Schlüs­sel­rol­le, indem sie aktiv Räu­me für Auf­klä­rung und Trai­ning schaf­fen.

Ler­nen­de müs­sen ler­nen, KI-gene­rier­te Infor­ma­tio­nen nicht blind zu ver­trau­en. Sie soll­ten in der Lage sein, die Glaub­wür­dig­keit von KI-gestütz­ten Quel­len zu hin­ter­fra­gen, Anzei­chen von Bias zu erken­nen und die ethi­schen Impli­ka­tio­nen des Ein­sat­zes von KI zu ver­ste­hen. Dies beinhal­tet die Ent­wick­lung digi­ta­ler Kom­pe­ten­zen, die über die rei­ne Bedie­nung von Gerä­ten hin­aus­ge­hen und ein tief­grei­fen­des Ver­ständ­nis für Infor­ma­ti­ons­ver­ar­bei­tung und algo­rith­mi­sche Pro­zes­se ein­schlie­ßen. Die Fähig­keit, infor­mier­te Ent­schei­dun­gen über die Nut­zung von KI-Tools zu tref­fen, ist eine Kern­kom­pe­tenz für das 21. Jahr­hun­dert.

Für Leh­ren­de bedeu­tet dies, sich selbst fort­zu­bil­den und neue didak­ti­sche Ansät­ze zu ent­wi­ckeln. Sie müs­sen in der Lage sein, KI-Tools kom­pe­tent ein­zu­set­zen, ihre Schü­le­rin­nen und Schü­ler im Umgang mit KI anzu­lei­ten und eine kri­ti­sche Aus­ein­an­der­set­zung mit der Tech­no­lo­gie im Unter­richt zu för­dern. Dies kann durch die Inte­gra­ti­on von KI-bezo­ge­nen The­men in den Lehr­plan gesche­hen, aber auch durch die Model­lie­rung eines kri­ti­schen und reflek­tier­ten Umgangs mit KI im eige­nen päd­ago­gi­schen Han­deln.

Die För­de­rung von Medi­en­kom­pe­tenz und kri­ti­schem Den­ken ist somit kei­ne optio­na­le Ergän­zung, son­dern eine not­wen­di­ge Vor­aus­set­zung für eine ethi­sche und schüt­zen­de Inte­gra­ti­on von KI in die Bil­dung. Sie befä­higt die Ler­nen­den, sich sou­ve­rän in einer zuneh­mend digi­ta­li­sier­ten und KI-durch­drun­ge­nen Welt zu bewe­gen und die Tech­no­lo­gie zu ihrem Vor­teil zu nut­zen, ohne dabei ihre Auto­no­mie oder ihre Fähig­keit zur selbst­stän­di­gen Urteils­bil­dung zu gefähr­den. Nur so kann sicher­ge­stellt wer­den, dass KI tat­säch­lich als Werk­zeug zur Ver­bes­se­rung der Bil­dung dient.

  • Gut­ach­ten der Daten­ethik­kom­mis­si­on
    Die­ses Gut­ach­ten hebt die Bedeu­tung von Bil­dung für einen frei­en und selbst­be­stimm­ten Umgang mit Daten und Tech­no­lo­gien her­vor und unter­streicht damit die Not­wen­dig­keit, Medi­en­kom­pe­tenz im Kon­text von KI zu för­dern.

Fazit: Ausblick und Empfehlungen für eine ethische KI-Integration

Die fort­schrei­ten­de Inte­gra­ti­on von KI in der Bil­dung birgt ein immenses Poten­zi­al, das Lern­um­feld zu revo­lu­tio­nie­ren und die Lern­ergeb­nis­se zu ver­bes­sern. Gleich­zei­tig erfor­dert die­ser Wan­del eine tief­grei­fen­de Aus­ein­an­der­set­zung mit den damit ver­bun­de­nen ethi­schen Her­aus­for­de­run­gen. Wie dar­ge­legt, sind Kern­prin­zi­pi­en wie Auto­no­mie, Nicht­schä­di­gung, Gerech­tig­keit und Trans­pa­renz unver­zicht­bar, um sicher­zu­stel­len, dass KI dem Bil­dungs­auf­trag dient und nicht zu neu­en Ungleich­hei­ten oder Risi­ken führt. Der Schutz sen­si­bler Daten, die Prä­ven­ti­on von Miss­brauch und die För­de­rung von Medi­en­kom­pe­tenz sind dabei zen­tra­le Säu­len einer ver­ant­wor­tungs­vol­len Imple­men­tie­rung.

Um eine ethisch fun­dier­te und schüt­zen­de Inte­gra­ti­on von KI in Bil­dungs­ein­rich­tun­gen zu gewähr­leis­ten, bedarf es gemein­sa­mer Anstren­gun­gen von Poli­tik, Bil­dungs­ein­rich­tun­gen und Tech­no­lo­gie­ent­wick­lern.

Emp­feh­lun­gen für die Poli­tik: Schaf­fung kla­rer regu­la­to­ri­scher Rah­men­be­din­gun­gen, die ethi­sche Stan­dards für KI in der Bil­dung fest­le­gen, aber auch Raum für Inno­va­ti­on las­sen. För­de­rung von For­schung zu KI-Ethik und deren Anwen­dung im Bil­dungs­kon­text. Unter­stüt­zung von Bil­dungs­ein­rich­tun­gen bei der Imple­men­tie­rung von KI durch Finan­zie­rung und Bereit­stel­lung von Leit­li­ni­en.

Emp­feh­lun­gen für Bil­dungs­ein­rich­tun­gen: Ent­wick­lung und Imple­men­tie­rung kla­rer KI-Richt­li­ni­en und ethi­scher Kodi­zes. Inves­ti­ti­on in die Fort­bil­dung von Lehr­kräf­ten und Per­so­nal im Umgang mit KI und digi­ta­len Kom­pe­ten­zen. Eta­blie­rung robus­ter Daten­schutz- und Daten­si­cher­heits­maß­nah­men. Akti­ve Ein­be­zie­hung von Schü­le­rin­nen und Schü­lern sowie Erzie­hungs­be­rech­tig­ten in den Dia­log über KI. För­de­rung von Medi­en­kom­pe­tenz und kri­ti­schem Den­ken als inte­gra­ler Bestand­teil des Cur­ri­cu­lums.

Emp­feh­lun­gen für Tech­no­lo­gie­ent­wick­ler: Prio­ri­sie­rung von ethi­schen Über­le­gun­gen bereits in der Design­pha­se von KI-Sys­te­men (Ethics by Design). Gewähr­leis­tung von Trans­pa­renz und Nach­voll­zieh­bar­keit der Algo­rith­men. Ent­wick­lung von Mecha­nis­men zur Erken­nung und Min­de­rung von Bias. Strik­te Ein­hal­tung von Daten­schutz­stan­dards und Bereit­stel­lung von Sicher­heits­funk­tio­nen.

Die Zukunft des Ler­nens wird maß­geb­lich davon abhän­gen, wie wir die Chan­cen von KI nut­zen und gleich­zei­tig ihre Risi­ken mini­mie­ren. Eine ethisch ver­ant­wor­tungs­vol­le KI-Inte­gra­ti­on ist nicht nur eine tech­ni­sche oder regu­la­to­ri­sche Her­aus­for­de­rung, son­dern eine päd­ago­gi­sche Not­wen­dig­keit, um sicher­zu­stel­len, dass Tech­no­lo­gie die mensch­li­che Ent­wick­lung und Bil­dung im Kern stärkt und berei­chert.


Weiterführende Quellen: