application-prod.yml 5.0 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117
  1. server:
  2. port: 7007
  3. #netty的配置信息
  4. webSocket:
  5. readerIdleTime: 120 #读空闲超时时间设置(Netty心跳检测配置)
  6. writerIdleTime: 120 #写空闲超时时间设置(Netty心跳检测配置)
  7. allIdleTime: 120 #读写空闲超时时间设置(Netty心跳检测配置)
  8. netty:
  9. port: 7000
  10. path: /webSocket
  11. readerIdleTime: 120 #读空闲超时时间设置(Netty心跳检测配置)
  12. writerIdleTime: 120 #写空闲超时时间设置(Netty心跳检测配置)
  13. allIdleTime: 120 #读写空闲超时时间设置(Netty心跳检测配置)
  14. history-track:
  15. port: 7001
  16. path: /historytrack
  17. focus-track:
  18. port: 7002
  19. path: /focustrack
  20. anchor-track:
  21. port: 7003
  22. path: /anchortrack
  23. spring:
  24. datasource:
  25. type: com.alibaba.druid.pool.DruidDataSource
  26. driverClassName: com.mysql.cj.jdbc.Driver
  27. url: jdbc:mysql://10.112.89.101:9030/ax_beidou?useUnicode=true&characterEncoding=utf8&zeroDateTimeBehavior=convertToNull&useSSL=true&serverTimezone=GMT%2B8&rewriteBatchedStatements=true
  28. username: root
  29. password: ROOT@taiji2022!
  30. # 初始连接数
  31. initialSize: 5
  32. # 最小连接池数量
  33. minIdle: 10
  34. # 最大连接池数量
  35. maxActive: 20
  36. # 配置获取连接等待超时的时间
  37. maxWait: 60000
  38. # 配置间隔多久才进行一次检测,检测需要关闭的空闲连接,单位是毫秒
  39. timeBetweenEvictionRunsMillis: 60000
  40. # 配置一个连接在池中最小生存的时间,单位是毫秒
  41. minEvictableIdleTimeMillis: 300000
  42. # 配置一个连接在池中最大生存的时间,单位是毫秒
  43. maxEvictableIdleTimeMillis: 900000
  44. # 配置检测连接是否有效
  45. validationQuery: SELECT 1
  46. kafka:
  47. bootstrap-servers: 10.112.89.239:9092
  48. producer:
  49. # 发生错误后,消息重发的次数。
  50. retries: 0
  51. #当有多个消息需要被发送到同一个分区时,生产者会把它们放在同一个批次里。该参数指定了一个批次可以使用的内存大小,按照字节数计算。
  52. batch-size: 16384
  53. # 设置生产者内存缓冲区的大小。
  54. buffer-memory: 33554432
  55. # 键的序列化方式
  56. key-serializer: org.apache.kafka.common.serialization.StringSerializer
  57. # 值的序列化方式
  58. value-serializer: org.apache.kafka.common.serialization.StringSerializer
  59. # acks=0 : 生产者在成功写入消息之前不会等待任何来自服务器的响应。
  60. # acks=1 : 只要集群的首领节点收到消息,生产者就会收到一个来自服务器成功响应。
  61. # acks=all :只有当所有参与复制的节点全部收到消息时,生产者才会收到一个来自服务器的成功响应。
  62. acks: 1
  63. consumer:
  64. # 自动提交的时间间隔 在spring boot 2.X 版本中这里采用的是值的类型为Duration 需要符合特定的格式,如1S,1M,2H,5D
  65. auto-commit-interval: 1S
  66. # 该属性指定了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下该作何处理:
  67. # latest(默认值)在偏移量无效的情况下,消费者将从最新的记录开始读取数据(在消费者启动之后生成的记录)
  68. # earliest :在偏移量无效的情况下,消费者将从起始位置读取分区的记录
  69. auto-offset-reset: latest
  70. # 是否自动提交偏移量,默认值是true,为了避免出现重复数据和数据丢失,可以把它设置为false,然后手动提交偏移量
  71. enable-auto-commit: false
  72. key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
  73. value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
  74. listener:
  75. # 在侦听器容器中运行的线程数。
  76. concurrency: 5
  77. #listner负责ack,每调用一次,就立即commit
  78. ack-mode: manual_immediate
  79. missing-topics-fatal: false
  80. type: batch
  81. # redis 配置
  82. redis:
  83. # 地址
  84. host: 10.112.89.239
  85. port: 6379
  86. # 数据库索引
  87. database: 3
  88. # 密码
  89. password:
  90. # 连接超时时间
  91. timeout: 10s
  92. lettuce:
  93. pool:
  94. # 连接池中的最小空闲连接
  95. min-idle: 0
  96. # 连接池中的最大空闲连接
  97. max-idle: 8
  98. # 连接池的最大数据库连接数
  99. max-active: 8
  100. # #连接池最大阻塞等待时间(使用负值表示没有限制)
  101. max-wait: -1ms
  102. taiji:
  103. geomesa.store.redis.config: redis.url===redis://10.112.89.239:6379###redis.catalog===geomesa###redis.connection.pool.size===100###redis.connection.pool.validate===true###geomesa.stats.enable===false###geomesa.stats.generate===false###geomesa.query.caching===false
  104. kafka:
  105. productor:
  106. beidou:
  107. topic: taiji_ax_beidou_dynamic_ship
  108. consumer:
  109. bootstrap-servers: 172.28.19.20:29092
  110. beidou:
  111. enable: true
  112. expiry: 3600
  113. topic: sgAxBeidouTrack
  114. group: sgAxBeidouTrack—${random.uuid}
  115. warning:
  116. topic: taiji_ax_ship_warning_record
  117. group: taiji_ax_ship_warning_record—${random.uuid}