Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
E
event
概览
概览
详情
活动
周期分析
版本库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
统计图
问题
0
议题
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
代码片段
成员
成员
折叠边栏
关闭边栏
活动
图像
聊天
创建新问题
作业
提交
问题看板
Open sidebar
陈世强
event
Commits
2bad0d57
提交
2bad0d57
authored
2月 06, 2025
作者:
王峰
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
服务名称修改
上级
3a4013d6
显示空白字符变更
内嵌
并排
正在显示
2 个修改的文件
包含
145 行增加
和
1 行删除
+145
-1
env.test
build/env/env.test
+1
-1
application-test.yml
src/main/resources/application-test.yml
+144
-0
没有找到文件。
build/env/env.test
浏览文件 @
2bad0d57
...
@@ -12,7 +12,7 @@ root_dir="/zzsn"
...
@@ -12,7 +12,7 @@ root_dir="/zzsn"
# 需根据日志配置填写,比如:logback-spring.xml
# 需根据日志配置填写,比如:logback-spring.xml
svc_logs
=
"/workspace/logs"
svc_logs
=
"/workspace/logs"
# 环境变量 test or prod
# 环境变量 test or prod
svc_env
=
"
pro
"
svc_env
=
"
test
"
# 服务名
# 服务名
svc_name
=
"event-analysis"
svc_name
=
"event-analysis"
# 服务端口
# 服务端口
...
...
src/main/resources/application-test.yml
0 → 100644
浏览文件 @
2bad0d57
server
:
port
:
1688
servlet
:
context-path
:
/event
spring
:
servlet
:
multipart
:
max-request-size
:
1024MB
max-file-size
:
100MB
web
:
resources
:
static-locations
:
-
file:${user.dir}/icon/
datasource
:
druid
:
stat-view-servlet
:
enabled
:
true
loginUsername
:
admin
loginPassword
:
123456667
allow
:
web-stat-filter
:
enabled
:
true
dynamic
:
druid
:
# 全局druid参数,绝大部分值和默认保持一致。(现已支持的参数如下,不清楚含义不要乱设置)
# 连接池的配置信息
# 初始化大小,最小,最大
initial-size
:
5
min-idle
:
5
maxActive
:
20
# 配置获取连接等待超时的时间
maxWait
:
60000
# 配置间隔多久才进行一次检测,检测需要关闭的空闲连接,单位是毫秒
timeBetweenEvictionRunsMillis
:
60000
# 配置一个连接在池中最小生存的时间,单位是毫秒
minEvictableIdleTimeMillis
:
600000
validationQuery
:
SELECT 1 FROM DUAL
testWhileIdle
:
true
testOnBorrow
:
false
testOnReturn
:
false
# 打开PSCache,并且指定每个连接上PSCache的大小
poolPreparedStatements
:
true
maxPoolPreparedStatementPerConnectionSize
:
20
# 配置监控统计拦截的filters,去掉后监控界面sql无法统计,'wall'用于防火墙
filters
:
stat,wall,slf4j
# 通过connectProperties属性来打开mergeSql功能;慢SQL记录
connectionProperties
:
druid.stat.mergeSql\=true;druid.stat.slowSqlMillis\=5000
datasource
:
master
:
url
:
jdbc:mysql://1.95.78.131:3306/clb_project_yjzx?useUnicode=true&characterEncoding=utf-8&AllowPublicKeyRetrieval=True&serverTimezone=Asia/Shanghai&autoReconnect=true&rewriteBatchedStatements=true
username
:
ciglobal
password
:
qwer@9988&zzsn
driver-class-name
:
com.mysql.cj.jdbc.Driver
multi-datasource1
:
url
:
jdbc:mysql://1.95.78.131:3306/clb_xxl_job_yjzx?characterEncoding=UTF-8&useUnicode=true&useSSL=false&tinyInt1isBit=false&allowPublicKeyRetrieval=true&serverTimezone=Asia/Shanghai
username
:
ciglobal
password
:
qwer@9988&zzsn
driver-class-name
:
com.mysql.cj.jdbc.Driver
multi-datasource-clb
:
driver-class-name
:
com.mysql.cj.jdbc.Driver
url
:
jdbc:mysql://1.95.14.228:3306/clb_project?characterEncoding=UTF-8&useUnicode=true&useSSL=false&tinyInt1isBit=false&allowPublicKeyRetrieval=true&serverTimezone=Asia/Shanghai&rewriteBatchedStatements=true
username
:
ciglobal
password
:
_PSuWVQ4CLpX
elasticsearch
:
uris
:
[
"
1.95.38.69:9700"
,
"
1.95.3.121:9200"
,
"
1.95.87.177:9700"
]
# ["192.168.0.24:9700","192.168.0.150:9200","192.168.0.81:9700"]
username
:
elastic
password
:
zzsn9988
connection-timeout
:
300000
socket-timeout
:
300000
cloud
:
stream
:
kafka
:
binder
:
brokers
:
1.95.78.131:9092
zkNodes
:
1.95.78.131:2181
requiredAcks
:
1
redis
:
database
:
0
host
:
1.95.69.2
lettuce
:
pool
:
max-active
:
8
#最大连接数据库连接数,设 0 为没有限制
max-idle
:
8
#最大等待连接中的数量,设 0 为没有限制
max-wait
:
-1ms
#最大建立连接等待时间。如果超过此时间将接到异常。设为-1表示无限制。
min-idle
:
0
#最小等待连接中的数量,设 0 为没有限制
shutdown-timeout
:
100ms
port
:
6380
password
:
RPHZgkDQ4zGJ
kafka
:
bootstrap-servers
:
1.95.78.131:9092
producer
:
# 生产者
retries
:
3
# 设置大于0的值,则客户端会将发送失败的记录重新发送
batch-size
:
16384
#缓存大小,默认32M
buffer-memory
:
335544324
acks
:
1
# 指定消息key和消息体的编解码方式
key-serializer
:
org.apache.kafka.common.serialization.StringSerializer
value-serializer
:
org.apache.kafka.common.serialization.StringSerializer
properties
:
max.request.size
:
335544324
#32M
consumer
:
#用于标识此使用者所属的使用者组的唯一字符串
group-id
:
event-analysis-group-yjzx
#当Kafka中没有初始偏移量或者服务器上不再存在当前偏移量时该怎么办,默认值为latest,表示自动将偏移重置为最新的偏移量
#可选的值为latest, earliest, none
auto-offset-reset
:
latest
#消费者的偏移量将在后台定期提交,默认值为true
enable-auto-commit
:
true
#如果'enable-auto-commit'为true,则消费者偏移自动提交给Kafka的频率(以毫秒为单位),默认值为5000。
auto-commit-interval
:
100
#密钥的反序列化器类,实现类实现了接口org.apache.kafka.common.serialization.Deserializer
key-deserializer
:
org.apache.kafka.common.serialization.StringDeserializer
#值的反序列化器类,实现类实现了接口org.apache.kafka.common.serialization.Deserializer
value-deserializer
:
org.apache.kafka.common.serialization.StringDeserializer
main
:
allow-circular-references
:
true
mybatis-plus
:
mapper-locations
:
classpath*:com/zzsn/event/**/xml/*.xml
configuration
:
map-underscore-to-camel-case
:
true
obs
:
ak
:
VEHN7D0TJ9316H8AHCAV
sk
:
heR353lvSWVPNU8pe2QxDtd8GDsO5L6PGH5eUoQY
endPoint
:
https://obs.cn-north-1.myhuaweicloud.com
scheduling
:
enable
:
true
serviceProject
:
url
:
https://clb.ciglobal.cn/clb-api/datapull/
checkToken
:
url
:
http://114.116.39.74:9988/sys/checkToken
clbLogin
:
url
:
http://114.116.39.74:9988/sys/loginBS
clb
:
eventAdd
:
http://1.95.72.34:1688/event/third/api/saveEvent
eventEdit
:
http://1.95.72.34:1688/event/third/api/editEvent
eventDelete
:
http://1.95.72.34:1688/event/third/api/deleteEvent
scoreRule
:
weekScore
:
10
monthScore
:
5
yearScore
:
3
beforeYearScore
:
1
translate
:
url
:
http://1.95.51.144:8018/translate/getTranslateInfoWithTag
\ No newline at end of file
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论