123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117 |
- server:
- port: 7007
- #netty的配置信息
- webSocket:
- readerIdleTime: 120 #读空闲超时时间设置(Netty心跳检测配置)
- writerIdleTime: 120 #写空闲超时时间设置(Netty心跳检测配置)
- allIdleTime: 120 #读写空闲超时时间设置(Netty心跳检测配置)
- netty:
- port: 7000
- path: /webSocket
- readerIdleTime: 120 #读空闲超时时间设置(Netty心跳检测配置)
- writerIdleTime: 120 #写空闲超时时间设置(Netty心跳检测配置)
- allIdleTime: 120 #读写空闲超时时间设置(Netty心跳检测配置)
- history-track:
- port: 7001
- path: /historytrack
- focus-track:
- port: 7002
- path: /focustrack
- anchor-track:
- port: 7003
- path: /anchortrack
- spring:
- datasource:
- type: com.alibaba.druid.pool.DruidDataSource
- driverClassName: com.mysql.cj.jdbc.Driver
- url: jdbc:mysql://10.112.89.101:9030/ax_beidou?useUnicode=true&characterEncoding=utf8&zeroDateTimeBehavior=convertToNull&useSSL=true&serverTimezone=GMT%2B8&rewriteBatchedStatements=true
- username: root
- password: ROOT@taiji2022!
- # 初始连接数
- initialSize: 5
- # 最小连接池数量
- minIdle: 10
- # 最大连接池数量
- maxActive: 20
- # 配置获取连接等待超时的时间
- maxWait: 60000
- # 配置间隔多久才进行一次检测,检测需要关闭的空闲连接,单位是毫秒
- timeBetweenEvictionRunsMillis: 60000
- # 配置一个连接在池中最小生存的时间,单位是毫秒
- minEvictableIdleTimeMillis: 300000
- # 配置一个连接在池中最大生存的时间,单位是毫秒
- maxEvictableIdleTimeMillis: 900000
- # 配置检测连接是否有效
- validationQuery: SELECT 1
- kafka:
- bootstrap-servers: 10.112.89.239:9092
- producer:
- # 发生错误后,消息重发的次数。
- retries: 0
- #当有多个消息需要被发送到同一个分区时,生产者会把它们放在同一个批次里。该参数指定了一个批次可以使用的内存大小,按照字节数计算。
- batch-size: 16384
- # 设置生产者内存缓冲区的大小。
- buffer-memory: 33554432
- # 键的序列化方式
- key-serializer: org.apache.kafka.common.serialization.StringSerializer
- # 值的序列化方式
- value-serializer: org.apache.kafka.common.serialization.StringSerializer
- # acks=0 : 生产者在成功写入消息之前不会等待任何来自服务器的响应。
- # acks=1 : 只要集群的首领节点收到消息,生产者就会收到一个来自服务器成功响应。
- # acks=all :只有当所有参与复制的节点全部收到消息时,生产者才会收到一个来自服务器的成功响应。
- acks: 1
- consumer:
- # 自动提交的时间间隔 在spring boot 2.X 版本中这里采用的是值的类型为Duration 需要符合特定的格式,如1S,1M,2H,5D
- auto-commit-interval: 1S
- # 该属性指定了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下该作何处理:
- # latest(默认值)在偏移量无效的情况下,消费者将从最新的记录开始读取数据(在消费者启动之后生成的记录)
- # earliest :在偏移量无效的情况下,消费者将从起始位置读取分区的记录
- auto-offset-reset: latest
- # 是否自动提交偏移量,默认值是true,为了避免出现重复数据和数据丢失,可以把它设置为false,然后手动提交偏移量
- enable-auto-commit: false
- key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
- value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
- listener:
- # 在侦听器容器中运行的线程数。
- concurrency: 5
- #listner负责ack,每调用一次,就立即commit
- ack-mode: manual_immediate
- missing-topics-fatal: false
- type: batch
- # redis 配置
- redis:
- # 地址
- host: 10.112.89.239
- port: 6379
- # 数据库索引
- database: 3
- # 密码
- password:
- # 连接超时时间
- timeout: 10s
- lettuce:
- pool:
- # 连接池中的最小空闲连接
- min-idle: 0
- # 连接池中的最大空闲连接
- max-idle: 8
- # 连接池的最大数据库连接数
- max-active: 8
- # #连接池最大阻塞等待时间(使用负值表示没有限制)
- max-wait: -1ms
- taiji:
- geomesa.store.redis.config: redis.url===redis://10.112.89.239:6379###redis.catalog===geomesa###redis.connection.pool.size===100###redis.connection.pool.validate===true###geomesa.stats.enable===false###geomesa.stats.generate===false###geomesa.query.caching===false
- kafka:
- productor:
- beidou:
- topic: taiji_ax_beidou_dynamic_ship
- consumer:
- bootstrap-servers: 172.28.19.20:29092
- beidou:
- enable: true
- expiry: 3600
- topic: sgAxBeidouTrack
- group: sgAxBeidouTrack—${random.uuid}
- warning:
- topic: taiji_ax_ship_warning_record
- group: taiji_ax_ship_warning_record—${random.uuid}
|