百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

Spark+Kafka实时监控Oracle数据预警

lipiwang 2024-11-12 13:14 7 浏览 0 评论

目标: 监控Oracle某张记录表,有新增数据则获取表数据,并推送到微信企业。

流程: Kafka实时监控Oracle指定表,获取该表操作信息(日志),使用Spark Structured Streaming消费Kafka,获取数据后清洗后存入指定目录,Python实时监控该目录,提取文本里面数据并推送到微信。(Oracle一台服务器,Kafka及Spark在另外一台服务器)

架构: Oracle+Kafka+Spark Structured Streaming+Python

centos7
oracle 11g
apache-maven-3.6.3-bin.tar.gz
kafka-connect-oracle-master.zip
hadoop-2.7.1.tar.gz
kafka_2.11-2.4.1.tgz (scala版本必须与系统及连接spark的jar包一致,这里是2.11)
spark-2.4.0-bin-without-hadoop.tgz
spark-streaming-kafka-0-8_2.11-2.4.0.jar
Java 1.8
python 3.6

一、Oracle侧

这边设置比较简单,使用SYS或者SYSTEM账户开启归档日志及附加日志即可,一般实际工作出于数据安全考虑日志都会开启状态,故不再多赘述,有搭建及开启问题可以随时私信。

二、Kafka侧

①配置maven,并添加进环境变量

#下载地址:http://maven.apache.org/download.cgi
#解压  所有配置文件默认放在/usr/local路径
tar xvf apache-maven-3.6.3-bin.tar.gz -C /usr/local/

#修改环境变量
vi /etc/profile

#加入下面内容
export MAVEN_HOME=/usr/local/apache-maven
export PATH=$PATH:${MAVEN_HOME}/bin

#刷新配置
source /ect/profile

②配置kafka-connect-oracle-master,config文件按oracle侧信息配置,然后使用maven工具编译。

#压缩包下载地址:https://github.com/erdemcer/kafka-connect-oracle
#解压 
unzip kafka-connect-oracle-master.zip 

#修改config下的配置文件
vi kafka-connect-oracle-master/config/OracleSourceConnector.properties 

#修改内容如下:
db.name.alias=dbserver   #oracle实例名称:select instance_name from v$instance
tasks.max=1
topic=cdczztar    #kafka主体名称
db.name=DBSERVER    #oracle服务器:select name from v$database;
db.hostname=192.168.81.159  #oracle服务器地址
db.port=1521  #oracle端口,一般默认1521
db.user=test  #数据库用户名
db.user.password=123456  #数据库密码
db.fetch.size=1
table.whitelist=LINHL.LHL_TEST  #需要监控的表名,可以使用*号监控所有,必须大写
table.blacklist=  #不监控的表名,没有为空,缺少该行会报错
parse.dml.data=true
reset.offset=true
start.scn=
multitenant=false

#编译 ,成功会有提示,并生成target文件夹
cd /usr/local/kafka-connect-oracle-master
mvn clean package

③解压kafka,并放入前面master文件夹下的几个jar包及配置文件

#解压 下载地址:http://kafka.apache.org/downloads
tar xvf kafka_2.11-2.4.1.tgz -C /usr/local/

#改名
mv ./kafka_2.11-2.4.1 ./kafka

#复制配置文件
cp /usr/local/kafka-connect-oracle-master/target/kafka-connect-oracle-1.0.71.jar  /usr/local/kafka/libs/
cp /usr/local/kafka-connect-oracle-master/lib/ojdbc7.jar  /usr/local/kafka/libs/
cp /usr/local/kafka-connect-oracle-master/config/OracleSourceConnector.properties  /usr/local/kafka/config/

④开启Kafka

#进入Kafka文件夹
cd /usr/local/kafka/bin/

#下面全都在单独的窗口开启服务,勿关闭窗口,测试状态,故没有在后台运行
#启动zookeeper
./zookeeper-server-start.sh ../config/zookeeper.properties
#启动kafka服务
./kafka-server-start.sh ../config/server.properties
#建立topic-cdczztar
./kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic cdczztar
#查看所有topic
./kafka-topics.sh --zookeeper localhost:2181 --list
#启动连接oracle
./connect-standalone.sh ../config/connect-standalone.properties ../config/OracleSourceConnector.properties
#启动消费端
#消费端此处只是为了展示用,后续使用spark做消费端
./kafka-console-consumer.sh --bootstrap-server localhost:9092 --from-beginning --topic cdczztar

三、Spark侧

Structured Streaming需要启用HDFS,这里都在本地测试环境实现,因此关于java及hadoop的安装,可以参考这篇的伪分布式配置dblab.xmu.edu.cn/blog/install-hadoop
①配置

#解压 #官网可以下载,没有资源请私信
tar  -zxf  spark-2.4.0-bin-without-hadoop.tgz  -C  /usr/local/

#重命名
mv  ./spark-2.4.0-bin-without-hadoop  ./spark

#修改配置文件
cd  /usr/local/spark
cp  ./conf/spark-env.sh.template  ./conf/spark-env.sh
vi ./conf/spark-env.sh

#加入下面内容
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath):/usr/local/spark/examples/jars/*:/usr/local/spark/jars/kafka/*:/usr/local/kafka/libs/*

#修改系统环境变量
vi /etc/profile

#加入下面内容
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export JAVA_HOME=/opt/java/jdk1.8.0_261
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=$PATH:${JAVA_HOME}/bin:/usr/local/hbase/bin
export SPARK_HOME=/usr/local/spark
export PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/lib/py4j-0.10.7-src.zip:/usr/local/python3/lib/python3.6/site-packages/:$PYTHONPATH
export PYSPARK_PYTHON=python3
export PATH=$HADOOP_HOME/bin:$SPARK_HOME/bin:$PATH

#更新配置
source /etc/profile

#在jars目录建立kafka文件夹,把kafka所有jar包放到该目录
cp /usr/local/spark-streaming-kafka-0-8_2.11-2.4.0.jar /usr/local/spark/jars/kafka
cp /usr/local/kafka/libs/* /usr/local/spark/jars/kafka

②Structured Streaming脚本建立

#!/usr/bin/env python3

import re
from functools import partial
from pyspark.sql.functions import *
from pyspark.sql import SparkSession

if __name__ == "__main__":

    spark = SparkSession \
        .builder \
        .appName("StructuredKafkaWordCount") \
        .getOrCreate()

    spark.sparkContext.setLogLevel('WARN') #只提示警示信息

    lines = spark \    #使用spark streaming则是基于KakfkaUtils包使用createDirectStream
        .readStream \
        .format("kafka") \
        .option("kafka.bootstrap.servers", "localhost:9092") \
        .option("subscribe", 'cdczztar') \   #要消费的topic
        .load().selectExpr("CAST(value AS STRING)")

    #lines.printSchema()
    #正则处理,根据实际数据处理,kafka获取后是oracle日志,在这只提取表插入的值
    pattern = 'data":(.+)}'
    fields = partial(regexp_extract, str="value", pattern=pattern)

    words = lines.select(fields(idx=1).alias("values"))
 
#输出模式:存入文件
    query = words \
		.writeStream \
		.outputMode("append") \
		.format("csv") \
		.option("path","file:///tmp/filesink") \   #存到服务器地址
                .option("checkpointLocation","file:///tmp/file-sink-cp") \
		.trigger(processingTime="10 seconds") \
		.start()	
	
    query.awaitTermination()	


#新开一个服务器窗口运行,这边已经在代码目录下
/usr/local/spark/bin/spark-submit --packages org.apache.spark:spark-sql-kafka-0-10_2.11:2.4.0  spark.py

③运行python实时打开写入的文件,提取信息并推送到微信端

import csv
import pyinotify  #这个包只支持linux,如果是window系统可以使用watchdog,一个原理及写法
import time
import requests
import json
import datetime
import pandas as pd

CORPID = "******"   #企业微信id
SECRET = "*******"  #企业微信密钥
AGENTID = 1000041   #企业微信端口
multi_event = pyinotify.IN_CREATE  #只对create这个动作做监控
wm = pyinotify.WatchManager()

#继承ProcessEvent后,对process_IN_CREATE方法重写
class MyHandler(pyinotify.ProcessEvent):   

    def send_msg_to_wechat(self, content):
        record = '{}\n'.format(datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S'))
        s = requests.session()
        url1 = "https://qyapi.weixin.qq.com/cgi-bin/gettoken?corpid={0}&corpsecret={1}".format(CORPID, SECRET)
        rep = s.get(url1)
        record += "{}\n".format(json.loads(rep.content))
        if rep.status_code == 200:
            token = json.loads(rep.content)['access_token']
            record += "获取token成功\n"
        else:
            record += "获取token失败\n"
            token = None
        url2 = "https://qyapi.weixin.qq.com/cgi-bin/message/send?access_token={}".format(token)
        header = {
            "Content-Type": "application/json"
        }
        form_data = {
            "touser": "@all",
            "toparty": " PartyID1 | PartyID2 ",
            "totag": " TagID1 | TagID2 ",
            "msgtype": "text",
            "agentid": AGENTID,
            "text": {
                "content": content
            },
            "safe": 0
        }
        rep = s.post(url2, data=json.dumps(form_data).encode('utf-8'), headers=header)
        if rep.status_code == 200:
            res = json.loads(rep.content)
            record += "发送成功\n"
        else:
            record += "发送失败\n"
            res = None
        return res

    def process_IN_CREATE(self, event):

        try:
            if '_spark_metadata' in event.pathname or '.crc' in event.pathname:
                pass
            else:
                print(event.pathname)
                f_path = event.pathname
                #此处坑,streaming那边生成文件还没写入数据就会触发该任务,不sleep打开的是空白文件
                time.sleep(5)
                df = pd.read_csv(r'' + f_path, encoding='utf8', names=['value'], sep='/')
                send_str = df.iloc[0, 0].replace('\\', '').replace(',"before":null}', '').replace('"','')
                print(send_str)
                self.send_msg_to_wechat('中间库预警:' + send_str)
        except:
            pass

handler = MyHandler()
notifier = pyinotify.Notifier(wm,handler)

wm.add_watch('/tmp/filesink/',multi_event)
notifier.loop()

微信端消息如下:

四、问题点

还有下面几个问题还没实现,有思路还请随时评论私信交流,感谢

  • 在structured streaming消费了kafka信息后,是否可以直接把消息推送到微信端口?
  • python监控文件有新增文件路径可以即时获取,但是要获取内容需要等待数据写入,sleep的方式不稳定,是否有方法可以判断数据已经写完就读取该文件?

作者:Rango_lhl

链接:https://www.cnblogs.com/rango-lhl/p/14368870.html

相关推荐

前端入门——css 网格轨道详细介绍

上篇前端入门——cssGrid网格基础知识整体大概介绍了cssgrid的基本概念及使用方法,本文将介绍创建网格容器时会发生什么?以及在网格容器上使用行、列属性如何定位元素。在本文中,将介绍:...

Islands Architecture(孤岛架构)在携程新版首页的实践

一、项目背景2022,携程PC版首页终于迎来了首次改版,完成了用户体验与技术栈的全面升级。作为与用户连接的重要入口,旧版PC首页已经陪伴携程走过了22年,承担着重要使命的同时,也遇到了很多问题:维护/...

HTML中script标签中的那些属性

HTML中的<script>标签详解在HTML中,<script>标签用于包含或引用JavaScript代码,是前端开发中不可或缺的一部分。通过合理使用<scrip...

CSS 中各种居中你真的玩明白了么

页面布局中最常见的需求就是元素或者文字居中了,但是根据场景的不同,居中也有简单到复杂各种不同的实现方式,本篇就带大家一起了解下,各种场景下,该如何使用CSS实现居中前言页面布局中最常见的需求就是元...

CSS样式更改——列表、表格和轮廓

上篇文章主要介绍了CSS样式更改篇中的字体设置Font&边框Border设置,这篇文章分享列表、表格和轮廓,一起来看看吧。1.列表List1).列表的类型<ulstyle='list-...

一文吃透 CSS Flex 布局

原文链接:一文吃透CSSFlex布局教学游戏这里有两个小游戏,可用来练习flex布局。塔防游戏送小青蛙回家Flexbox概述Flexbox布局也叫Flex布局,弹性盒子布局。它决定了...

css实现多行文本的展开收起

背景在我们写需求时可能会遇到类似于这样的多行文本展开与收起的场景:那么,如何通过纯css实现这样的效果呢?实现的难点(1)位于多行文本右下角的展开收起按钮。(2)展开和收起两种状态的切换。(3)文本...

css 垂直居中的几种实现方式

前言设计是带有主观色彩的,同样网页设计中的css一样让人摸不头脑。网上列举的实现方式一大把,或许在这里你都看到过,但既然来到这里我希望这篇能让你看有所收获,毕竟这也是前端面试的基础。实现方式备注:...

WordPress固定链接设置

WordPress设置里的最后一项就是固定链接设置,固定链接设置是决定WordPress文章及静态页面URL的重要步骤,从站点的SEO角度来讲也是。固定链接设置决定网站URL,当页面数少的时候,可以一...

面试发愁!吃透 20 道 CSS 核心题,大厂 Offer 轻松拿

前端小伙伴们,是不是一想到面试里的CSS布局题就发愁?写代码时布局总是对不齐,面试官追问兼容性就卡壳,想跳槽却总被“多列等高”“响应式布局”这些问题难住——别担心!从今天起,咱们每天拆解一...

3种CSS清除浮动的方法

今天这篇文章给大家介绍3种CSS清除浮动的方法。有一定的参考价值,有需要的朋友可以参考一下,希望对大家有所帮助。首先,这里就不讲为什么我们要清楚浮动,反正不清除浮动事多多。下面我就讲3种常用清除浮动的...

2025 年 CSS 终于要支持强大的自定义函数了?

大家好,很高兴又见面了,我是"高级前端进阶",由我带着大家一起关注前端前沿、深入前端底层技术,大家一起进步,也欢迎大家关注、点赞、收藏、转发!1.什么是CSS自定义属性CSS自...

css3属性(transform)的一个css3动画小应用

闲言碎语不多讲,咱们说说css3的transform属性:先上效果:效果说明:当鼠标移到a标签的时候,从右上角滑出二维码。实现方法:HTML代码如下:需要说明的一点是,a链接的跳转需要用javasc...

CSS基础知识(七)CSS背景

一、CSS背景属性1.背景颜色(background-color)属性值:transparent(透明的)或color(颜色)2.背景图片(background-image)属性值:none(没有)...

CSS 水平居中方式二

<divid="parent"><!--定义子级元素--><divid="child">居中布局</div>...

取消回复欢迎 发表评论: