<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>简单之美 &#187; Tag &#187; SDXL 1.0</title>
	<atom:link href="http://shiyanjun.cn/archives/tag/sdxl-1-0/feed" rel="self" type="application/rss+xml" />
	<link>http://shiyanjun.cn</link>
	<description>简单之美，难得简单，享受简单的唯美。</description>
	<lastBuildDate>Wed, 04 Mar 2026 07:04:53 +0000</lastBuildDate>
	<language>zh-CN</language>
		<sy:updatePeriod>hourly</sy:updatePeriod>
		<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=3.9.2</generator>
	<item>
		<title>体验 Stable Diffusion 模型生成图像</title>
		<link>http://shiyanjun.cn/archives/2161.html</link>
		<comments>http://shiyanjun.cn/archives/2161.html#comments</comments>
		<pubDate>Sat, 29 Jul 2023 04:19:18 +0000</pubDate>
		<dc:creator><![CDATA[Yanjun]]></dc:creator>
				<category><![CDATA[人工智能]]></category>
		<category><![CDATA[SDXL 1.0]]></category>
		<category><![CDATA[SDXL 1.0 Refiner 1.0]]></category>
		<category><![CDATA[Stable Diffusion v2]]></category>

		<guid isPermaLink="false">http://shiyanjun.cn/?p=2161</guid>
		<description><![CDATA[<p>Stable Diffusion 是 2022 年发布的深度学习文本到图像生成模型，是主要用于“文本生成图像”的深度学习模型，也就是常说的 txt2img 的应用场景中：通过给定文本提示词（text prompt），该模型会输出一张匹配提示词的图片。Stable Diffusion 模型能够根据文本的描述生成图像，另外它也可以应用于其他任务，如内补绘制、外补绘制，以及在提示词指导下生成图像。
Stable Diffusion 是基于“潜在扩散模型”（Latent Diffusion Model，LDM）的模型，Diffusion 是扩散的意思，通常我们简称 Stable Diffusion 模型为 SD 模型。SD 模型是开源的，我们可以在 Github 上找到它的源码和使用方法：https://github.com/Stability-AI/StableDiffusion，也可以在 Huggingface 网站上获取到相关资源：https://huggingface.co/stabilityai。
实验环境
我们实验的基础环境的基本配置，作为参考，如下所示：

CentOS 7.6 64
Anaconda3-2023.07-1-Linux-x86_64
Python 3.11.3
GPU Tesla P40（显存24 G/1 core）
CPU 6 vCore/56G

我们使用的 Anaconda，需要安装对应的 Python 模块：
克</p>]]></description>
	<p>Stable Diffusion 是 2022 年发布的深度学习文本到图像生成模型，是主要用于“文本生成图像”的深度学习模型，也就是常说的 txt2img 的应用场景中：通过给定文本提示词（text prompt），该模型会输出一张匹配提示词的图片。Stable Diffusion 模型能够根据文本的描述生成图像，另外它也可以应用于其他任务，如内补绘制、外补绘制，以及在提示词指导下生成图像。
Stable Diffusion 是基于“潜在扩散模型”（Latent Diffusion Model，LDM）的模型，Diffusion 是扩散的意思，通常我们简称 Stable Diffusion 模型为 SD 模型。SD 模型是开源的，我们可以在 Github 上找到它的源码和使用方法：https://github.com/Stability-AI/StableDiffusion，也可以在 Huggingface 网站上获取到相关资源：https://huggingface.co/stabilityai。
实验环境
我们实验的基础环境的基本配置，作为参考，如下所示：

CentOS 7.6 64
Anaconda3-2023.07-1-Linux-x86_64
Python 3.11.3
GPU Tesla P40（显存24 G/1 core）
CPU 6 vCore/56G

我们使用的 Anaconda，需要安装对应的 Python 模块：

</p>			<content:encoded><![CDATA[<p>Stable Diffusion 是 2022 年发布的深度学习文本到图像生成模型，是主要用于“文本生成图像”的深度学习模型，也就是常说的 txt2img 的应用场景中：通过给定文本提示词（text prompt），该模型会输出一张匹配提示词的图片。Stable Diffusion 模型能够根据文本的描述生成图像，另外它也可以应用于其他任务，如内补绘制、外补绘制，以及在提示词指导下生成图像。
Stable Diffusion 是基于“潜在扩散模型”（Latent Diffusion Model，LDM）的模型，Diffusion 是扩散的意思，通常我们简称 Stable Diffusion 模型为 SD 模型。SD 模型是开源的，我们可以在 Github 上找到它的源码和使用方法：https://github.com/Stability-AI/StableDiffusion，也可以在 Huggingface 网站上获取到相关资源：https://huggingface.co/stabilityai。
实验环境
我们实验的基础环境的基本配置，作为参考，如下所示：

CentOS 7.6 64
Anaconda3-2023.07-1-Linux-x86_64
Python 3.11.3
GPU Tesla P40（显存24 G/1 core）
CPU 6 vCore/56G

我们使用的 Anaconda，需要安装对应的 Python 模块：
克</p>]]></content:encoded>
			<wfw:commentRss>http://shiyanjun.cn/archives/2161.html/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
