Commit e63db94a authored by tangtuo's avatar tangtuo

Merge branch 'dev_1.0.0' into test_v1.0.0

parents 673b7140 a6c5c0d9
...@@ -30,10 +30,6 @@ spring: ...@@ -30,10 +30,6 @@ spring:
master-data-source-name: write master-data-source-name: write
# 从库数据源名称列表,多个逗号分隔 # 从库数据源名称列表,多个逗号分隔
slave-data-source-names: read slave-data-source-names: read
props:
# 开启SQL显示,默认false
sql:
show: true
redis: redis:
host: 172.16.101.135 host: 172.16.101.135
port: 6379 port: 6379
......
...@@ -30,10 +30,7 @@ spring: ...@@ -30,10 +30,7 @@ spring:
master-data-source-name: write master-data-source-name: write
# 从库数据源名称列表,多个逗号分隔 # 从库数据源名称列表,多个逗号分隔
slave-data-source-names: read slave-data-source-names: read
props:
# 开启SQL显示,默认false
sql:
show: true
redis: redis:
host: 172.16.101.135 host: 172.16.101.135
port: 6379 port: 6379
......
...@@ -30,10 +30,6 @@ spring: ...@@ -30,10 +30,6 @@ spring:
master-data-source-name: write master-data-source-name: write
# 从库数据源名称列表,多个逗号分隔 # 从库数据源名称列表,多个逗号分隔
slave-data-source-names: read slave-data-source-names: read
props:
# 开启SQL显示,默认false
sql:
show: true
redis: redis:
host: 172.16.101.136 host: 172.16.101.136
port: 6379 port: 6379
......
...@@ -3,127 +3,59 @@ ...@@ -3,127 +3,59 @@
<!-- scan:当此属性设置为true时,配置文件如果发生改变,将会被重新加载,默认值为true --> <!-- scan:当此属性设置为true时,配置文件如果发生改变,将会被重新加载,默认值为true -->
<!-- scanPeriod:设置监测配置文件是否有修改的时间间隔,如果没有给出时间单位,默认单位是毫秒。当scan为true时,此属性生效。默认的时间间隔为1分钟。 --> <!-- scanPeriod:设置监测配置文件是否有修改的时间间隔,如果没有给出时间单位,默认单位是毫秒。当scan为true时,此属性生效。默认的时间间隔为1分钟。 -->
<!-- debug:当此属性设置为true时,将打印出logback内部日志信息,实时查看logback运行状态。默认值为false。 --> <!-- debug:当此属性设置为true时,将打印出logback内部日志信息,实时查看logback运行状态。默认值为false。 -->
<configuration scan="true" scanPeriod="10 seconds"> <configuration scan="true" scanPeriod="60 seconds" debug="false">
<!--<include resource="org/springframework/boot/logging/logback/base.xml" />-->
<contextName>logback</contextName> <contextName>logback</contextName>
<!-- name的值是变量的名称,value的值时变量定义的值。通过定义的值会被插入到logger上下文中。定义变量后,可以使“${}”来使用变量。 -->
<property name="LOG_HOME" value="logs"/>
<springProfile name="dev">
<property name="LOG_HOME" value="logs"/>
</springProfile>
<springProfile name="test">
<property name="LOG_HOME" value="logs"/>
</springProfile>
<!-- 彩色日志 -->
<!-- 彩色日志依赖的渲染类 -->
<conversionRule conversionWord="clr" converterClass="org.springframework.boot.logging.logback.ColorConverter"/>
<conversionRule conversionWord="wex"
converterClass="org.springframework.boot.logging.logback.WhitespaceThrowableProxyConverter"/>
<conversionRule conversionWord="wEx"
converterClass="org.springframework.boot.logging.logback.ExtendedWhitespaceThrowableProxyConverter"/>
<!-- 彩色日志格式 -->
<property name="CONSOLE_LOG_PATTERN"
value="${CONSOLE_LOG_PATTERN:-%clr(%d{yyyy-MM-dd HH:mm:ss.SSS}){faint} %clr(${LOG_LEVEL_PATTERN:-%5p}) %clr(${PID:- }){magenta} %clr(---){faint} %clr([%15.15t]){faint} %clr(%-40.40logger{39}){cyan} %clr(:){faint} %m%n${LOG_EXCEPTION_CONVERSION_WORD:-%wEx}}"/>
<!--日志路径-->
<property name="LOG_HOME" value="logs"/>
<!--日志格式化输出:%d表示日期,%thread表示线程名,%-5level:级别从左显示5个字符宽度 %logger{50}:表示logger名字最长50个字符,否则按照句点分割 %msg:日志消息,%n是换行符 -->
<property name="LOG_PATTERN" value="%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50}-%msg%n"/>
<!--输出到控制台--> <!-- 控制台 -->
<appender name="CONSOLE" class="ch.qos.logback.core.ConsoleAppender"> <appender name="CONSOLE" class="ch.qos.logback.core.ConsoleAppender">
<!--此日志appender是为开发使用,只配置最底级别,控制台输出的日志级别是大于或等于此级别的日志信息--> <!-- 日志格式 -->
<encoder> <encoder>
<Pattern>${CONSOLE_LOG_PATTERN}</Pattern> <pattern>${LOG_PATTERN}</pattern>
<!-- 设置字符集 -->
<charset>UTF-8</charset> <charset>UTF-8</charset>
</encoder> </encoder>
</appender>
<!--输出到控制台-->
<appender name="DOCKER_LOGS" class="ch.qos.logback.core.ConsoleAppender">
<!--此日志appender是为开发使用,只配置最底级别,控制台输出的日志级别是大于或等于此级别的日志信息--> <!--此日志appender是为开发使用,只配置最底级别,控制台输出的日志级别是大于或等于此级别的日志信息-->
<filter class="ch.qos.logback.classic.filter.ThresholdFilter"> <filter class="ch.qos.logback.classic.filter.ThresholdFilter">
<level>INFO</level> <level>DEBUG</level>
</filter> </filter>
<encoder>
<Pattern>${CONSOLE_LOG_PATTERN}</Pattern>
<!-- 设置字符集 -->
<charset>UTF-8</charset>
</encoder>
</appender> </appender>
<!--输出到文件--> <!--输出到文件-->
<!-- 设置分割 -->
<!-- 2、全部日志时间滚动输出 -->
<appender name="INFO_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender"> <appender name="INFO_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
<filter class="ch.qos.logback.classic.filter.ThresholdFilter"> <!-- 循环政策:基于时间创建日志文件 -->
<level>INFO</level> <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
</filter> <!-- 日志命名:单个文件大于50MB 按照时间+自增i 生成log文件 -->
<!-- 设置按尺寸和时间(同时满足)分割 -->
<rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy">
<!-- rollover daily -->
<fileNamePattern>${LOG_HOME}/logback.%d{yyyy-MM-dd}.%i.log</fileNamePattern> <fileNamePattern>${LOG_HOME}/logback.%d{yyyy-MM-dd}.%i.log</fileNamePattern>
<!-- each file should be at most 100MB, keep 20 days worth of history, <timeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
but at most 3GB --> <maxFileSize>100MB</maxFileSize>
<maxFileSize>100MB</maxFileSize> </timeBasedFileNamingAndTriggeringPolicy>
<maxHistory>60</maxHistory> <maxHistory>180</maxHistory>
<totalSizeCap>20GB</totalSizeCap>
</rollingPolicy> </rollingPolicy>
<encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder"> <append>true</append>
<pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50}-%msg%n</pattern> <encoder>
<pattern>${LOG_PATTERN}</pattern>
<charset>UTF-8</charset> <charset>UTF-8</charset>
</encoder> </encoder>
</appender> </appender>
<appender name="ASYNC_LOG" class="ch.qos.logback.classic.AsyncAppender">
<!-- 不丢失日志,默认值80,如果队列的80%已满,则会丢弃TRACT、DEBUG、INFO级别的日志 -->
<discardingThreshold>0</discardingThreshold>
<!-- 更改默认的队列的深度,该值会影响性能.默认值256 -->
<queueSize>256</queueSize>
<!-- 添加附加的appender,最多只能添加一个 -->
<appender-ref ref="INFO_FILE"/>
</appender>
<!--
<logger>用来设置某一个包或者具体的某一个类的日志打印级别、
以及指定<appender>。<logger>仅有一个name属性,
一个可选的level和一个可选的addtivity属性。
name:用来指定受此logger约束的某一个包或者具体的某一个类。
level:用来设置打印级别,大小写无关:TRACE, DEBUG, INFO, WARN, ERROR, ALL 和 OFF,
还有一个特俗值INHERITED或者同义词NULL,代表强制执行上级的级别。
如果未设置此属性,那么当前logger将会继承上级的级别。
addtivity:是否向上级logger传递打印信息。默认是true。
-->
<!--<logger name="org.springframework.web" level="info"/>-->
<!--<logger name="org.springframework.scheduling.annotation.ScheduledAnnotationBeanPostProcessor" level="INFO"/>-->
<!--
使用mybatis的时候,sql语句是debug下才会打印,而这里我们只配置了info,所以想要查看sql语句的话,有以下两种操作:
第一种把<root level="info">改成<root level="DEBUG">这样就会打印sql,不过这样日志那边会出现很多其他消息
第二种就是单独给dao下目录配置debug模式,代码如下,这样配置sql语句会打印,其他还是正常info级别:
-->
<!--
root节点是必选节点,用来指定最基础的日志输出级别,只有一个level属性
level:用来设置打印级别,大小写无关:TRACE, DEBUG, INFO, WARN, ERROR, ALL 和 OFF,
不能设置为INHERITED或者同义词NULL。默认是DEBUG
可以包含零个或多个元素,标识这个appender将会添加到这个logger。
-->
<logger name="com.fzm.common.mapper" level="DEBUG"/>
<root level="INFO"> <root level="INFO">
<!--开发环境和本地:--> <!--开发环境和本地:-->
<springProfile name="local"> <springProfile name="local">
<appender-ref ref="CONSOLE"/> <appender-ref ref="CONSOLE"/>
</springProfile> </springProfile>
<springProfile name="dev"> <springProfile name="dev">
<!-- <appender-ref ref="CONSOLE" />--> <appender-ref ref="CONSOLE"/>
<appender-ref ref="DOCKER_LOGS"/>
<appender-ref ref="INFO_FILE"/> <appender-ref ref="INFO_FILE"/>
</springProfile> </springProfile>
<springProfile name="test"> <springProfile name="test">
<!-- <appender-ref ref="CONSOLE" />--> <appender-ref ref="CONSOLE"/>
<appender-ref ref="DOCKER_LOGS"/>
<appender-ref ref="INFO_FILE"/> <appender-ref ref="INFO_FILE"/>
</springProfile> </springProfile>
</root> </root>
......
...@@ -198,6 +198,7 @@ public class NftServiceImpl extends ServiceImpl<NftMapper, Nft> implements NftSe ...@@ -198,6 +198,7 @@ public class NftServiceImpl extends ServiceImpl<NftMapper, Nft> implements NftSe
public List<Nft> listCurrent(Integer categoryId, Integer userId) { public List<Nft> listCurrent(Integer categoryId, Integer userId) {
QueryWrapper<Nft> queryWrapper = new QueryWrapper<>(); QueryWrapper<Nft> queryWrapper = new QueryWrapper<>();
queryWrapper.eq("user_id", userId); queryWrapper.eq("user_id", userId);
queryWrapper.ne("nft_hash", "");
if (categoryId != null) { if (categoryId != null) {
queryWrapper.eq("category_id", categoryId); queryWrapper.eq("category_id", categoryId);
} }
......
...@@ -4,11 +4,11 @@ ...@@ -4,11 +4,11 @@
<select id="list" resultType="com.fzm.common.entity.Nft"> <select id="list" resultType="com.fzm.common.entity.Nft">
select * from tb_nft select * from tb_nft
where status = 1 where status = 1 and nft_hash != ''
<if test="categoryId != null and categoryId > 0"> <if test="categoryId != null and categoryId > 0">
and category_id=#{categoryId} and category_id=#{categoryId}
</if> </if>
order by is_top desc , update_date desc order by is_top desc , publish_time desc
limit #{pageNum},#{pageSize} limit #{pageNum},#{pageSize}
</select> </select>
...@@ -40,7 +40,7 @@ ...@@ -40,7 +40,7 @@
tb_nft n tb_nft n
LEFT JOIN tb_user u ON n.user_id = u.id LEFT JOIN tb_user u ON n.user_id = u.id
WHERE WHERE
1 = 1 nft_hash != ''
<if test="name != null and name != ''"> <if test="name != null and name != ''">
and n.name like concat ('%',#{name},'%') and n.name like concat ('%',#{name},'%')
</if> </if>
......
...@@ -19,10 +19,6 @@ ...@@ -19,10 +19,6 @@
</dependency> </dependency>
<dependency> <dependency>
<groupId>org.springframework.boot</groupId> <groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-amqp</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-test</artifactId> <artifactId>spring-boot-starter-test</artifactId>
<scope>test</scope> <scope>test</scope>
</dependency> </dependency>
......
package com.fzm.portal.config;
import org.springframework.amqp.core.Binding;
import org.springframework.amqp.core.Exchange;
import org.springframework.amqp.core.Queue;
import org.springframework.amqp.core.TopicExchange;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import java.util.HashMap;
/**
* @author tangtuo
* @date 2021/6/30 10:41
*/
@Configuration
public class RabbitMQConfig {
@Bean
public Exchange orderEventExchange() {
return new TopicExchange("nft-event-exchange", true, false);
}
@Bean
public Queue nftHashQueue() {
return new Queue("nft.hash.queue",true,false,false);
}
@Bean
public Binding orderCreateBinding() {
/**
* String destination, 目的地(队列名或者交换机名字)
* DestinationType destinationType, 目的地类型(Queue、Exhcange)
* String exchange,
* String routingKey,
* Map<String, Object> arguments
* */
return new Binding("nft.hash.queue", Binding.DestinationType.QUEUE, "nft-event-exchange", "nft.hash", null);
}
}
...@@ -30,10 +30,6 @@ spring: ...@@ -30,10 +30,6 @@ spring:
master-data-source-name: write master-data-source-name: write
# 从库数据源名称列表,多个逗号分隔 # 从库数据源名称列表,多个逗号分隔
slave-data-source-names: read slave-data-source-names: read
props:
# 开启SQL显示,默认false
sql:
show: true
redis: redis:
host: 172.16.101.135 host: 172.16.101.135
port: 6379 port: 6379
...@@ -51,15 +47,8 @@ spring: ...@@ -51,15 +47,8 @@ spring:
cache: cache:
# 整合SpringCache,redis作为缓存类型 # 整合SpringCache,redis作为缓存类型
type: redis type: redis
rabbitmq: redis:
host: 172.16.101.135 time-to-live: 86400000
port: 5672
username: admin
password: admin
listener:
simple:
####开启手动签收
acknowledge-mode: manual
swagger: swagger:
title: 乐映影视门户系统 title: 乐映影视门户系统
......
...@@ -30,10 +30,6 @@ spring: ...@@ -30,10 +30,6 @@ spring:
master-data-source-name: write master-data-source-name: write
# 从库数据源名称列表,多个逗号分隔 # 从库数据源名称列表,多个逗号分隔
slave-data-source-names: read slave-data-source-names: read
props:
# 开启SQL显示,默认false
sql:
show: true
redis: redis:
host: localhost host: localhost
port: 6379 port: 6379
...@@ -51,15 +47,17 @@ spring: ...@@ -51,15 +47,17 @@ spring:
cache: cache:
# 整合SpringCache,redis作为缓存类型 # 整合SpringCache,redis作为缓存类型
type: redis type: redis
rabbitmq: redis:
host: 172.16.101.135 time-to-live: 86400000
port: 5672 # rabbitmq:
username: admin # host: 172.16.101.135
password: admin # port: 5672
listener: # username: admin
simple: # password: admin
####开启手动签收 # listener:
acknowledge-mode: manual # simple:
# ####开启手动签收
# acknowledge-mode: manual
swagger: swagger:
title: 乐映影视门户系统 title: 乐映影视门户系统
...@@ -105,3 +103,5 @@ chain: ...@@ -105,3 +103,5 @@ chain:
admin-key: 8cd19e9bf39055f95e3e33cc1e08b9f9fc2e9be48a5b3a4d401e64041c97aec7 admin-key: 8cd19e9bf39055f95e3e33cc1e08b9f9fc2e9be48a5b3a4d401e64041c97aec7
contract-name: user.evm.0xd996a3a866c577596df260844a045a068ec5accd8d71ccaa3d578c9617ec5490 contract-name: user.evm.0xd996a3a866c577596df260844a045a068ec5accd8d71ccaa3d578c9617ec5490
contract-address: 1iDWTHZQxPES4hLveZRcwJH6AMaMfZfZZ contract-address: 1iDWTHZQxPES4hLveZRcwJH6AMaMfZfZZ
...@@ -30,10 +30,6 @@ spring: ...@@ -30,10 +30,6 @@ spring:
master-data-source-name: write master-data-source-name: write
# 从库数据源名称列表,多个逗号分隔 # 从库数据源名称列表,多个逗号分隔
slave-data-source-names: read slave-data-source-names: read
props:
# 开启SQL显示,默认false
sql:
show: true
redis: redis:
host: 172.16.101.136 host: 172.16.101.136
port: 6379 port: 6379
...@@ -51,15 +47,17 @@ spring: ...@@ -51,15 +47,17 @@ spring:
cache: cache:
# 整合SpringCache,redis作为缓存类型 # 整合SpringCache,redis作为缓存类型
type: redis type: redis
rabbitmq: redis:
host: 172.16.101.135 time-to-live: 86400000
port: 5672 # rabbitmq:
username: admin # host: 172.16.101.135
password: admin # port: 5672
listener: # username: admin
simple: # password: admin
####开启手动签收 # listener:
acknowledge-mode: manual # simple:
# ####开启手动签收
# acknowledge-mode: manual
swagger: swagger:
title: 乐映影视门户系统 title: 乐映影视门户系统
......
...@@ -15,6 +15,7 @@ mybatis-plus: ...@@ -15,6 +15,7 @@ mybatis-plus:
type-aliases-package: com.fzm.common.entity type-aliases-package: com.fzm.common.entity
mapper-locations: classpath:mapper/*.xml mapper-locations: classpath:mapper/*.xml
configuration: configuration:
#log-impl: org.apache.ibatis.logging.stdout.StdOutImpl
map-underscore-to-camel-case: true map-underscore-to-camel-case: true
logging: logging:
......
...@@ -3,129 +3,59 @@ ...@@ -3,129 +3,59 @@
<!-- scan:当此属性设置为true时,配置文件如果发生改变,将会被重新加载,默认值为true --> <!-- scan:当此属性设置为true时,配置文件如果发生改变,将会被重新加载,默认值为true -->
<!-- scanPeriod:设置监测配置文件是否有修改的时间间隔,如果没有给出时间单位,默认单位是毫秒。当scan为true时,此属性生效。默认的时间间隔为1分钟。 --> <!-- scanPeriod:设置监测配置文件是否有修改的时间间隔,如果没有给出时间单位,默认单位是毫秒。当scan为true时,此属性生效。默认的时间间隔为1分钟。 -->
<!-- debug:当此属性设置为true时,将打印出logback内部日志信息,实时查看logback运行状态。默认值为false。 --> <!-- debug:当此属性设置为true时,将打印出logback内部日志信息,实时查看logback运行状态。默认值为false。 -->
<configuration scan="true" scanPeriod="10 seconds"> <configuration scan="true" scanPeriod="60 seconds" debug="false">
<!--<include resource="org/springframework/boot/logging/logback/base.xml" />-->
<contextName>logback</contextName> <contextName>logback</contextName>
<!-- name的值是变量的名称,value的值时变量定义的值。通过定义的值会被插入到logger上下文中。定义变量后,可以使“${}”来使用变量。 -->
<property name="LOG_HOME" value="logs"/>
<springProfile name="local">
</springProfile>
<springProfile name="dev">
<property name="LOG_HOME" value="logs"/>
</springProfile>
<springProfile name="test">
<property name="LOG_HOME" value="logs"/>
</springProfile>
<!-- 彩色日志 -->
<!-- 彩色日志依赖的渲染类 -->
<conversionRule conversionWord="clr" converterClass="org.springframework.boot.logging.logback.ColorConverter"/>
<conversionRule conversionWord="wex"
converterClass="org.springframework.boot.logging.logback.WhitespaceThrowableProxyConverter"/>
<conversionRule conversionWord="wEx"
converterClass="org.springframework.boot.logging.logback.ExtendedWhitespaceThrowableProxyConverter"/>
<!-- 彩色日志格式 -->
<property name="CONSOLE_LOG_PATTERN"
value="${CONSOLE_LOG_PATTERN:-%clr(%d{yyyy-MM-dd HH:mm:ss.SSS}){faint} %clr(${LOG_LEVEL_PATTERN:-%5p}) %clr(${PID:- }){magenta} %clr(---){faint} %clr([%15.15t]){faint} %clr(%-40.40logger{39}){cyan} %clr(:){faint} %m%n${LOG_EXCEPTION_CONVERSION_WORD:-%wEx}}"/>
<!--日志路径-->
<property name="LOG_HOME" value="logs"/>
<!--日志格式化输出:%d表示日期,%thread表示线程名,%-5level:级别从左显示5个字符宽度 %logger{50}:表示logger名字最长50个字符,否则按照句点分割 %msg:日志消息,%n是换行符 -->
<property name="LOG_PATTERN" value="%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50}-%msg%n"/>
<!--输出到控制台--> <!-- 控制台 -->
<appender name="CONSOLE" class="ch.qos.logback.core.ConsoleAppender"> <appender name="CONSOLE" class="ch.qos.logback.core.ConsoleAppender">
<!--此日志appender是为开发使用,只配置最底级别,控制台输出的日志级别是大于或等于此级别的日志信息--> <!-- 日志格式 -->
<encoder> <encoder>
<Pattern>${CONSOLE_LOG_PATTERN}</Pattern> <pattern>${LOG_PATTERN}</pattern>
<!-- 设置字符集 -->
<charset>UTF-8</charset> <charset>UTF-8</charset>
</encoder> </encoder>
</appender>
<!--输出到控制台-->
<appender name="DOCKER_LOGS" class="ch.qos.logback.core.ConsoleAppender">
<!--此日志appender是为开发使用,只配置最底级别,控制台输出的日志级别是大于或等于此级别的日志信息--> <!--此日志appender是为开发使用,只配置最底级别,控制台输出的日志级别是大于或等于此级别的日志信息-->
<filter class="ch.qos.logback.classic.filter.ThresholdFilter"> <filter class="ch.qos.logback.classic.filter.ThresholdFilter">
<level>INFO</level> <level>DEBUG</level>
</filter> </filter>
<encoder>
<Pattern>${CONSOLE_LOG_PATTERN}</Pattern>
<!-- 设置字符集 -->
<charset>UTF-8</charset>
</encoder>
</appender> </appender>
<!--输出到文件--> <!--输出到文件-->
<!-- 设置分割 -->
<!-- 2、全部日志时间滚动输出 -->
<appender name="INFO_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender"> <appender name="INFO_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
<filter class="ch.qos.logback.classic.filter.ThresholdFilter"> <!-- 循环政策:基于时间创建日志文件 -->
<level>INFO</level> <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
</filter> <!-- 日志命名:单个文件大于50MB 按照时间+自增i 生成log文件 -->
<!-- 设置按尺寸和时间(同时满足)分割 -->
<rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy">
<!-- rollover daily -->
<fileNamePattern>${LOG_HOME}/logback.%d{yyyy-MM-dd}.%i.log</fileNamePattern> <fileNamePattern>${LOG_HOME}/logback.%d{yyyy-MM-dd}.%i.log</fileNamePattern>
<!-- each file should be at most 100MB, keep 20 days worth of history, <timeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
but at most 3GB --> <maxFileSize>100MB</maxFileSize>
<maxFileSize>100MB</maxFileSize> </timeBasedFileNamingAndTriggeringPolicy>
<maxHistory>60</maxHistory> <maxHistory>180</maxHistory>
<totalSizeCap>20GB</totalSizeCap>
</rollingPolicy> </rollingPolicy>
<encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder"> <append>true</append>
<pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50}-%msg%n</pattern> <encoder>
<pattern>${LOG_PATTERN}</pattern>
<charset>UTF-8</charset> <charset>UTF-8</charset>
</encoder> </encoder>
</appender> </appender>
<appender name="ASYNC_LOG" class="ch.qos.logback.classic.AsyncAppender">
<!-- 不丢失日志,默认值80,如果队列的80%已满,则会丢弃TRACT、DEBUG、INFO级别的日志 -->
<discardingThreshold>0</discardingThreshold>
<!-- 更改默认的队列的深度,该值会影响性能.默认值256 -->
<queueSize>256</queueSize>
<!-- 添加附加的appender,最多只能添加一个 -->
<appender-ref ref="INFO_FILE"/>
</appender>
<!--
<logger>用来设置某一个包或者具体的某一个类的日志打印级别、
以及指定<appender>。<logger>仅有一个name属性,
一个可选的level和一个可选的addtivity属性。
name:用来指定受此logger约束的某一个包或者具体的某一个类。
level:用来设置打印级别,大小写无关:TRACE, DEBUG, INFO, WARN, ERROR, ALL 和 OFF,
还有一个特俗值INHERITED或者同义词NULL,代表强制执行上级的级别。
如果未设置此属性,那么当前logger将会继承上级的级别。
addtivity:是否向上级logger传递打印信息。默认是true。
-->
<!--<logger name="org.springframework.web" level="info"/>-->
<!--<logger name="org.springframework.scheduling.annotation.ScheduledAnnotationBeanPostProcessor" level="INFO"/>-->
<!--
使用mybatis的时候,sql语句是debug下才会打印,而这里我们只配置了info,所以想要查看sql语句的话,有以下两种操作:
第一种把<root level="info">改成<root level="DEBUG">这样就会打印sql,不过这样日志那边会出现很多其他消息
第二种就是单独给dao下目录配置debug模式,代码如下,这样配置sql语句会打印,其他还是正常info级别:
-->
<!--
root节点是必选节点,用来指定最基础的日志输出级别,只有一个level属性
level:用来设置打印级别,大小写无关:TRACE, DEBUG, INFO, WARN, ERROR, ALL 和 OFF,
不能设置为INHERITED或者同义词NULL。默认是DEBUG
可以包含零个或多个元素,标识这个appender将会添加到这个logger。
-->
<logger name="com.fzm.common.mapper" level="DEBUG"/>
<root level="INFO"> <root level="INFO">
<!--开发环境和本地:--> <!--开发环境和本地:-->
<springProfile name="local"> <springProfile name="local">
<appender-ref ref="CONSOLE"/> <appender-ref ref="CONSOLE"/>
</springProfile> </springProfile>
<springProfile name="dev"> <springProfile name="dev">
<!-- <appender-ref ref="CONSOLE" />--> <appender-ref ref="CONSOLE"/>
<appender-ref ref="DOCKER_LOGS"/>
<appender-ref ref="INFO_FILE"/> <appender-ref ref="INFO_FILE"/>
</springProfile> </springProfile>
<springProfile name="test"> <springProfile name="test">
<!-- <appender-ref ref="CONSOLE" />--> <appender-ref ref="CONSOLE"/>
<appender-ref ref="DOCKER_LOGS"/>
<appender-ref ref="INFO_FILE"/> <appender-ref ref="INFO_FILE"/>
</springProfile> </springProfile>
</root> </root>
......
...@@ -75,19 +75,6 @@ ...@@ -75,19 +75,6 @@
<version>2.8.6</version> <version>2.8.6</version>
</dependency> </dependency>
<!-- Sa-Token 权限认证, 在线文档:http://sa-token.dev33.cn/ -->
<dependency>
<groupId>cn.dev33</groupId>
<artifactId>sa-token-spring-boot-starter</artifactId>
<version>1.20.0</version>
</dependency>
<!-- Sa-Token整合redis (使用jackson序列化方式) -->
<dependency>
<groupId>cn.dev33</groupId>
<artifactId>sa-token-dao-redis-jackson</artifactId>
<version>1.20.0</version>
</dependency>
<dependency> <dependency>
<groupId>com.github.pagehelper</groupId> <groupId>com.github.pagehelper</groupId>
<artifactId>pagehelper-spring-boot-starter</artifactId> <artifactId>pagehelper-spring-boot-starter</artifactId>
......
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment