<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Alexander Fraser &#8211; phaenomenal.net</title>
	<atom:link href="https://phaenomenal.net/tag/alexander-fraser/feed/" rel="self" type="application/rss+xml" />
	<link>https://phaenomenal.net</link>
	<description>Das Online-Magazin für den Future Flow</description>
	<lastBuildDate>Mon, 27 Oct 2025 14:16:55 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.3</generator>

<image>
	<url>https://phaenomenal.net/wp-content/uploads/2025/04/Logo-Phaenomenal-net-Onlinemagazin-fuer-den-Future-Flow-150x150.png</url>
	<title>Alexander Fraser &#8211; phaenomenal.net</title>
	<link>https://phaenomenal.net</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>KI-Bildgeneratoren verstärken Geschlechterstereotype je nach Sprache unterschiedlich stark</title>
		<link>https://phaenomenal.net/ki-verstaerkt-stereotype/</link>
					<comments>https://phaenomenal.net/ki-verstaerkt-stereotype/#respond</comments>
		
		<dc:creator><![CDATA[H.O. Wireless]]></dc:creator>
		<pubDate>Mon, 27 Oct 2025 14:15:12 +0000</pubDate>
				<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Alexander Fraser]]></category>
		<category><![CDATA[Gendergerechtigkeit]]></category>
		<category><![CDATA[Geschlechterrollen]]></category>
		<category><![CDATA[hessian.AI]]></category>
		<category><![CDATA[KI-Bildgeneratoren]]></category>
		<category><![CDATA[Kristian Kersting]]></category>
		<category><![CDATA[MAGBIG]]></category>
		<category><![CDATA[Sprachbias]]></category>
		<category><![CDATA[TU Darmstadt]]></category>
		<category><![CDATA[TUM]]></category>
		<guid isPermaLink="false">https://phaenomenal.net/?p=13383</guid>

					<description><![CDATA[Eine neue Studie von TUM und TU Darmstadt zeigt: KI-Bildgeneratoren verstärken Geschlechterstereotype – und zwar je nach Sprache unterschiedlich stark. Der gleiche Berufsprompt führt in verschiedenen Sprachen zu völlig unterschiedlichen Darstellungen. Sprachsensibilität wird damit zum Schlüssel für faire KI.]]></description>
										<content:encoded><![CDATA[<p>„Bitte einen Arzt“: KI-Bilder spiegeln nicht nur gesellschaftliche Rollenbilder wider – sie verstärken sie. Besonders direkte, maskulin formulierte Prompts führten zu Bildern, die Männer in dominanten und Frauen in fürsorglichen Rollen zeigen. (Bild: Redaktion/PiPaPu) Kurzinfo: Sprachbias in KI-Bildern…</p>
<p><a href="https://phaenomenal.net/ki-verstaerkt-stereotype/" rel="nofollow">Quelle</a></p>]]></content:encoded>
					
					<wfw:commentRss>https://phaenomenal.net/ki-verstaerkt-stereotype/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
