不及硅步,无以至千里
Jenkins 修改成流水线
我们目前有个项目还是手动构建jar包,然后上传到服务器,手动执行脚本启动这种特别古早的部署方式,主要还是生产环境异常严格的网络限制造成的,最早我是搭建了一套Jenkins,但是因为机器不通网的问题,导致很多插件无法安装,包括最重要的流水线。 那么之前的话,我都是使用maven 直接构建,然后通过sh
部署RocketMQ以及遇到的坑
我由于之前部署kafka 的时候,把Zookeeper 已经安装好了,所以就直接共用了 1、下载最新RocketMQ包 wget https://dist.apache.org/repos/dist/release/rocketmq/5.3.1/rocketmq-all-5.3.1-bin-rele
服务器离线安装kafka
因为测试环境的服务器不能连公网,所有的服务都要离线安装,还挺麻烦的,但是还好不难,自己稍微记录一下 1、去官网(https://kafka.apache.org/downloads)下载离线包并上传到服务器上 2、解压 tar -xzvf kafka_2.13-3.8.1.tgz
接口融合加密提交
后端接口在提交过程中,我们系统一般都是明文传输的,因为恰巧接口参数没有做签名,所以就导致了数据篡改的分风险,因为没太多时间做数据签名,所以就打算用RSA 的方式直接对入参做加密,然后后端解密处理,但是由于RSA 对比较大的参数无法做加密,所以就采用了融合加密的方式处理了。 具体逻辑就是先对入参数据做
rocketmq 重单节点切换到双节点集群导致历史消息重新消费
事故起因 目前公司生产环境的mq 是一主一从的方式,但是uat 还是单节点的方式做的,这也导致了uat不能完全模拟生产环境,其实正常的基建是还有一个sit环境的,但是奈何资源不够。目前的话,要将uat环境跟生产环境同步,所以uat 也需要从单节点切换到一主一从双节点,接下来就是枯燥的环境搭建了,参考
利用docker-compose搭建带SASL认证的kafka
搭建 docker-compose.yaml version: '2'
services:
zookeeper:
image: confluentinc/cp-zookeeper:5.1.2
hostname: zookeeper
restar
数据库设置自增id为负数导致的问题
背景 手上的项目是从其他人手里接过来的,然后数据库的id全是做的雪花 问题现状 由于加了新需求,也就加了表,然后id的话就默认写成了int,实体类上的id就自动生成了Integer。由于雪花生产的数据int 放不下,导致入库有些数据就成了负数,起初以为问题不大,后面发现在做update的时候,偶发的
利用docker-compose搭建 redis 集群并整合spring boot
先用docker-compose搭建redis集群 version: '3.8'
services:
redis-node-0:
image: bitnami/redis-cluster
container_name: redis-node-0
restart:
解决comalibabafastjsonJSONObject cannot be cast to javalangString-944130d2-c0df-45c3-84a5-e03e201383b6
添加fastJSONconfig @Configuration
public class fastJsonConfig {
@Bean
public HttpMessageConverters converter() {
FastJsonHttpMessageCon