<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>简单之美 &#187; Tag &#187; Kafka</title>
	<atom:link href="http://shiyanjun.cn/archives/tag/kafka/feed" rel="self" type="application/rss+xml" />
	<link>http://shiyanjun.cn</link>
	<description>简单之美，难得简单，享受简单的唯美。</description>
	<lastBuildDate>Wed, 04 Mar 2026 07:04:53 +0000</lastBuildDate>
	<language>zh-CN</language>
		<sy:updatePeriod>hourly</sy:updatePeriod>
		<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=3.9.2</generator>
	<item>
		<title>Kafka SCRAM 动态认证授权配置实践</title>
		<link>http://shiyanjun.cn/archives/2246.html</link>
		<comments>http://shiyanjun.cn/archives/2246.html#comments</comments>
		<pubDate>Wed, 03 Jan 2024 05:23:26 +0000</pubDate>
		<dc:creator><![CDATA[Yanjun]]></dc:creator>
				<category><![CDATA[开源技术]]></category>
		<category><![CDATA[Kafka]]></category>
		<category><![CDATA[SCRAM]]></category>

		<guid isPermaLink="false">http://shiyanjun.cn/?p=2246</guid>
		<description><![CDATA[<p>Kafka 使用 JAAS（Java Authentication and Authorization Service）来实现 SASL 认证授权。我们这里通过使用 Kafka 提供的 SCRAM 方式实现动态认证授权的配置，动态认证授权的好处非常直接，不用根据实际需求修改各种配置文件添加账号及授权，可以像操作数据库服务器一样，通过命令行就能实现认证授权的管理。
准备工作
操作系统：
我们使用 CentOS 系统，系统版本是 CentOS-7.9。
我们使用默认的单机安装方式，ZooKeeper 是内置在 Kakfa 安装包里面的，所以不需要单独下载。如果希望单独安装，可以自行准备。
为了方便操作，保证使用 ZooKeeper 的可访问性，这里直接把防火墙关闭掉：
下载软件：
解压缩包：
JDK 配置这里就不累述了。
SCRAM 动态认证授权配置
基于 SCRAM 的 Kafka 认证授权配置还是比较复杂一些，我们可以把这个配置过程分为两个阶段，一个是认证配置，一个是授权配置，区分这样两个阶段有助于我们实践过程中更加清晰地知道在做哪个环节的事情。
下面是 SCRAM 整个认证配置的过程：
1 创建 SCRAM 凭证
在没有修改任何 Kafka 配置的情况下，直接启</p>]]></description>
	<p>Kafka 使用 JAAS（Java Authentication and Authorization Service）来实现 SASL 认证授权。我们这里通过使用 Kafka 提供的 SCRAM 方式实现动态认证授权的配置，动态认证授权的好处非常直接，不用根据实际需求修改各种配置文件添加账号及授权，可以像操作数据库服务器一样，通过命令行就能实现认证授权的管理。
准备工作
操作系统：
我们使用 CentOS 系统，系统版本是 CentOS-7.9。
我们使用默认的单机安装方式，ZooKeeper 是内置在 Kakfa 安装包里面的，所以不需要单独下载。如果希望单独安装，可以自行准备。
为了方便操作，保证使用 ZooKeeper 的可访问性，这里直接把防火墙关闭掉：

systemctl stop firewalld

下载软件：

wget https://download.oracle.com/java/17/latest/jdk-17_linux-x64_bin.tar.gz
wget https://archive.apache.org/dist/kafka/3.3.1/kafka_2.13-3.3.1.tgz

解压缩包：

tar xzvf jdk-17_linux-x64_bin.tar.gz
tar kafka_2.13-3.3.1.tgz
cd kafka_2.13-3.3.1

JDK 配置这里就不累述了。
SCRAM 动态认证授权配置
基于 SCRAM 的 </p>			<content:encoded><![CDATA[<p>Kafka 使用 JAAS（Java Authentication and Authorization Service）来实现 SASL 认证授权。我们这里通过使用 Kafka 提供的 SCRAM 方式实现动态认证授权的配置，动态认证授权的好处非常直接，不用根据实际需求修改各种配置文件添加账号及授权，可以像操作数据库服务器一样，通过命令行就能实现认证授权的管理。
准备工作
操作系统：
我们使用 CentOS 系统，系统版本是 CentOS-7.9。
我们使用默认的单机安装方式，ZooKeeper 是内置在 Kakfa 安装包里面的，所以不需要单独下载。如果希望单独安装，可以自行准备。
为了方便操作，保证使用 ZooKeeper 的可访问性，这里直接把防火墙关闭掉：
下载软件：
解压缩包：
JDK 配置这里就不累述了。
SCRAM 动态认证授权配置
基于 SCRAM 的 Kafka 认证授权配置还是比较复杂一些，我们可以把这个配置过程分为两个阶段，一个是认证配置，一个是授权配置，区分这样两个阶段有助于我们实践过程中更加清晰地知道在做哪个环节的事情。
下面是 SCRAM 整个认证配置的过程：
1 创建 SCRAM 凭证
在没有修改任何 Kafka 配置的情况下，直接启</p>]]></content:encoded>
			<wfw:commentRss>http://shiyanjun.cn/archives/2246.html/feed</wfw:commentRss>
		<slash:comments>1</slash:comments>
		</item>
		<item>
		<title>Kafka+Storm+HDFS整合实践</title>
		<link>http://shiyanjun.cn/archives/934.html</link>
		<comments>http://shiyanjun.cn/archives/934.html#comments</comments>
		<pubDate>Tue, 21 Oct 2014 11:24:19 +0000</pubDate>
		<dc:creator><![CDATA[Yanjun]]></dc:creator>
				<category><![CDATA[Hadoop/Hive/ZooKeeper]]></category>
		<category><![CDATA[Storm]]></category>
		<category><![CDATA[开源技术]]></category>
		<category><![CDATA[HDFS]]></category>
		<category><![CDATA[Kafka]]></category>

		<guid isPermaLink="false">http://shiyanjun.cn/?p=934</guid>
		<description><![CDATA[<p>在基于Hadoop平台的很多应用场景中，我们需要对数据进行离线和实时分析，离线分析可以很容易地借助于Hive来实现统计分析，但是对于实时的需求Hive就不合适了。实时应用场景可以使用Storm，它是一个实时处理系统，它为实时处理类应用提供了一个计算模型，可以很容易地进行编程处理。为了统一离线和实时计算，一般情况下，我们都希望将离线和实时计算的数据源的集合统一起来作为输入，然后将数据的流向分别经由实时系统和离线分析系统，分别进行分析处理，这时我们可以考虑将数据源（如使用Flume收集日志）直接连接一个消息中间件，如Kafka，可以整合Flume+Kafka，Flume作为消息的Producer，生产的消息数据（日志数据、业务请求数据等等）发布到Kafka中，然后通过订阅的方式，使用Storm的Topology作为消息的Consumer，在Storm集群中分别进行如下两个需求场景的处理：

直接使用Storm的Topology对数据进行实时分析处理
整合Storm+HDFS，将消息处理后写入HDFS进行离线分析处理

实时处理，只要开发满足业务需要的Topology即可，不做过多说明。这里，我们主要从安装配置K</p>]]></description>
	<p>在基于Hadoop平台的很多应用场景中，我们需要对数据进行离线和实时分析，离线分析可以很容易地借助于Hive来实现统计分析，但是对于实时的需求Hive就不合适了。实时应用场景可以使用Storm，它是一个实时处理系统，它为实时处理类应用提供了一个计算模型，可以很容易地进行编程处理。为了统一离线和实时计算，一般情况下，我们都希望将离线和实时计算的数据源的集合统一起来作为输入，然后将数据的流向分别经由实时系统和离线分析系统，分别进行分析处理，这时我们可以考虑将数据源（如使用Flume收集日志）直接连接一个消息中间件，如Kafka，可以整合Flume+Kafka，Flume作为消息的Producer，生产的消息数据（日志数据、业务请求数据等等）发布到Kafka中，然后通过订阅的方式，使用Storm的Topology作为消息的Consumer，在Storm集群中分别进行如下两个需求场景的处理：

直接使用Storm的Topology对数据进行实时分析处理
整合Storm+HDFS，将消息处理后写入HDFS进行离线分析处理

实时处理，只要开发满足业务需要的Topology即可，不做过多说明。这里，我们主要从安装配置K</p>			<content:encoded><![CDATA[<p>在基于Hadoop平台的很多应用场景中，我们需要对数据进行离线和实时分析，离线分析可以很容易地借助于Hive来实现统计分析，但是对于实时的需求Hive就不合适了。实时应用场景可以使用Storm，它是一个实时处理系统，它为实时处理类应用提供了一个计算模型，可以很容易地进行编程处理。为了统一离线和实时计算，一般情况下，我们都希望将离线和实时计算的数据源的集合统一起来作为输入，然后将数据的流向分别经由实时系统和离线分析系统，分别进行分析处理，这时我们可以考虑将数据源（如使用Flume收集日志）直接连接一个消息中间件，如Kafka，可以整合Flume+Kafka，Flume作为消息的Producer，生产的消息数据（日志数据、业务请求数据等等）发布到Kafka中，然后通过订阅的方式，使用Storm的Topology作为消息的Consumer，在Storm集群中分别进行如下两个需求场景的处理：

直接使用Storm的Topology对数据进行实时分析处理
整合Storm+HDFS，将消息处理后写入HDFS进行离线分析处理

实时处理，只要开发满足业务需要的Topology即可，不做过多说明。这里，我们主要从安装配置K</p>]]></content:encoded>
			<wfw:commentRss>http://shiyanjun.cn/archives/934.html/feed</wfw:commentRss>
		<slash:comments>156</slash:comments>
		</item>
	</channel>
</rss>
