application.yml 6.0 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144
  1. server:
  2. #需要更改
  3. port: 8827
  4. spring:
  5. # 应用名称
  6. application:
  7. name: zkt-project-alarm
  8. profiles:
  9. active: WDPj4403070003 #39Pj5001120003 #Pj4403070003 #Pj3201110003
  10. datasource:
  11. #需要更改
  12. url: jdbc:mysql://39.102.43.179:9934/alarm-quartz?useUnicode=true&characterEncoding=utf-8&useSSL=false&serverTimezone=Asia/Shanghai&autoReconnect=true&failOverReadOnly=false
  13. driver-class-name: com.mysql.jdbc.Driver # mysql8.0以前使用com.mysql.jdbc.Driver
  14. #需要更改
  15. username: root
  16. #需要更改
  17. password: brzj123456
  18. type: com.alibaba.druid.pool.DruidDataSource
  19. initial-size: 5 # 初始化大小
  20. min-idle: 5 # 最小
  21. max-active: 20 # 最大
  22. max-wait: 60000 # 配置获取连接等待超时的时间
  23. time-between-eviction-runs-millis: 60000 # 配置间隔多久才进行一次检测,检测需要关闭的空闲连接,单位是毫秒
  24. min-evictable-idle-time-millis: 300000 # 指定一个空闲连接最少空闲多久后可被清除,单位是毫秒
  25. validationQuery: select 'x'
  26. test-while-idle: true # 当连接空闲时,是否执行连接测试
  27. test-on-borrow: false # 当从连接池借用连接时,是否测试该连接
  28. test-on-return: false # 在连接归还到连接池时是否测试该连接
  29. filters: config,wall,stat # 配置监控统计拦截的filters,去掉后监控界面sql无法统计,'wall'用于防火墙
  30. poolPreparedStatements: true # 打开PSCache,并且指定每个连接上PSCache的大小
  31. MaxPoolPreparedStatementPerConnectionSize: 20
  32. maxOpenPreparedStatements: 50
  33. # 通过connectProperties属性来打开mergeSql功能;慢SQL记录
  34. connectionProperties: druid.stat.slowSqlMillis=500;druid.stat.logSlowSql=true;config.decrypt=false
  35. quartz:
  36. job-store-type: jdbc
  37. jdbc:
  38. initialize-schema: never # always never
  39. comment-prefix: '#'
  40. jpa:
  41. show-sql: false # 打印 SQL 。生产环境,建议关闭
  42. # Hibernate 配置内容,对应 HibernateProperties 类
  43. hibernate:
  44. ddl-auto: none
  45. kafka:
  46. enable: false
  47. bootstrapServers: 192.168.64.16:9092
  48. producer:
  49. # 发生错误后,消息重发的次数。
  50. retries: 2
  51. #当有多个消息需要被发送到同一个分区时,生产者会把它们放在同一个批次里。该参数指定了一个批次可以使用的内存大小,按照字节数计算。
  52. batch-size: 65536
  53. # 设置生产者内存缓冲区的大小。
  54. buffer-memory: 33554432
  55. # acks=0 : 生产者在成功写入消息之前不会等待任何来自服务器的响应。
  56. # acks=1 : 只要集群的首领节点收到消息,生产者就会收到一个来自服务器成功响应。
  57. # acks=all :只有当所有参与复制的节点全部收到消息时,生产者才会收到一个来自服务器的成功响应。
  58. acks: "1"
  59. properties:
  60. max.request.size: 50000000
  61. linger-ms: 500
  62. topics: topic.alarm.edge
  63. consumer:
  64. # 自动提交的时间间隔 在spring boot 2.X 版本中这里采用的是值的类型为Duration 需要符合特定的格式,如1S,1M,2H,5D
  65. auto-commit-interval: 1S
  66. # 该属性指定了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下该作何处理:
  67. # latest(默认值)在偏移量无效的情况下,消费者将从最新的记录开始读取数据(在消费者启动之后生成的记录)
  68. # earliest :在偏移量无效的情况下,消费者将从起始位置读取分区的记录
  69. auto-offset-reset: latest
  70. # 是否自动提交偏移量,默认值是true,为了避免出现重复数据和数据丢失,可以把它设置为false,然后手动提交偏移量
  71. enable-auto-commit: false
  72. group-id: ibms-project-alarm
  73. topics: topic.alarm.cloud
  74. listener:
  75. # 在侦听器容器中运行的线程数。
  76. concurrency: 5
  77. #listner负责ack,每调用一次,就立即commit
  78. ack-mode: manual_immediate
  79. missing-topics-fatal: false
  80. logging:
  81. level:
  82. org.springframework.security:
  83. - debug
  84. - info
  85. org.springframework.web: error
  86. org.hibernate.SQL: debug
  87. org.hibernate.engine.QueryParameters: debug
  88. org.hibernate.engine.query.HQLQueryPlan: debug
  89. org.hibernate.type.descriptor.sql.BasicBinder: trace
  90. system:
  91. id: system #默认用户表示 ,用于报警记录的创建人
  92. alarm:
  93. get:
  94. all:
  95. alarmdefine:
  96. cron: 0 0 23 * * ? #每天23点全量更新一次报警定义
  97. kafka:
  98. enable: false;
  99. # 配置日志相关的参考文档,https://github.com/dadiyang/autologging.git
  100. autolog:
  101. # 请填写应用名称,必填!
  102. app-name: ${spring.application.name}
  103. # 是否读取远程配置,开启此配置将可以支持远程动态更改配置
  104. use-remote: false
  105. # 如果启用远程配置,必须配置远程服务器地址
  106. remote-config-host: ''
  107. # 耗时阈值,只有当方法耗时大于这个值时才处理,单位毫秒,默认不限制
  108. time-consume-threshold: -1
  109. # 是否打印日志到本地
  110. local:
  111. enable: false
  112. # 本地打印耗时阈值,只有当方法耗时大于这个值时打印到本地,单位毫秒,默认不限制
  113. time-consume-threshold: -1
  114. # 选择开启哪些切面
  115. aspect-enable:
  116. controller: true
  117. http-api: true
  118. log: true
  119. mapper: true
  120. repository: true
  121. service: true
  122. service-contract: true
  123. # 关于参数和返回值序列化的配置
  124. serialize:
  125. args-full: true
  126. args-max-length: 512
  127. result-full: false
  128. result-max-length: 512
  129. kafka:
  130. # 若开启 kafka 上报,则以下四个选项为必填项
  131. enable: false
  132. bootstrap-server:
  133. client-id:
  134. topic:
  135. # 以下 kafka 细节配置,如无特殊情况,请保持默认
  136. acks: all
  137. batch-size: 16384
  138. buffer-memory: 33554432
  139. max-block-ms: 0
  140. metadata-max-age-ms: 300000
  141. request-timeout-ms: 30000
  142. key-serializer: org.apache.kafka.common.serialization.StringSerializer
  143. value-serializer: org.apache.kafka.common.serialization.StringSerializer