postgresql 迁移数据到 MySQL

最近在搞 tidb,想找个方法往 MySQL 协议中快速写入数据,在 postgresql 下有 copy,找了下,MySQL 下也有 load data,其本质也是一个 insert,看到这里 https://blog.csdn.net/seven_33… 有一个思路是不走落地文件,挖坑待填 =========== 2019-9-4 回来填坑了,具体的方法如下 public static InputStream getPo……

阅读全文

CentOS 离线安装 docker

参考 https://blog.csdn.net/u0123738… 下载了这些安装包 lxc-libs-1.0.11-1.el6.x86_64.rpm lua-alt-getopt-0.7.0-1.el6.noarch.rpm lua-filesystem-1.4.2-1.el6.x86_64.rpm lxc-1.0.11-1.el6.x86_64.rpm lua-lxc-1.0.11-1.el6.x86_64.rpm docker-io-1.7.1-2.el6.x86_64.rpm device-mapper-libs-1.02.117……

阅读全文

CentOS 挂载 ISO 作为 reop 源

参考这里 https://linux.cn/article-1017-… 先光盘挂载上去 mkdir /mnt/cdrom mount -o loop /dev/cdrom /mnt/cdrom/ 然后备份 repo 文件 mkdir /etc/yum.repos.d/bak mv *.repo /etc/yum.repos.d/bak 然后新建自己的文件 [base] name=RedHat baseurl=file:///mnt/cdrom enabled=1 gpgckeck=……

阅读全文

python 中 yyyymmdd 与 timestamp 互转

一般来说,每个语言都会有自己的各种 date time 对象,然后,基于这些 date time 对象,又会衍生出来一堆的各种方法,什么加加减减的,但是,如果是在多种语言之间切换的话,一种一种去记,其实很累,多年下来,摸索出来一个方法,就是只用 yyyymmdd 这种 string 和 timestamp 这种 int64,同时搞好互转,这个思路在各个……

阅读全文

如何从 std::vector 中删除数据

std::vector 由于内存的连续性带来了访问的高效率,但是,如果我们想要从 std::vector 中删除掉某些行的数据,应该怎么操作呢 首先,如果这个动作是一个高频频繁的动作,那从一开始就不应该使用 std::vector,而是应该用 std::list,但是,如果这个动作并不是很高频,且 std::vector 的连续高效性对我们很重要的情况下,……

阅读全文

karatsuba 乘法

karatsuba 是一种快速乘法,主要是采用了一种分治的思想来进行大数的乘法,其教程和证明可见 https://blog.csdn.net/qj30212/… 其 Python 代码如下 def karatsuba(num1, num2): if (num1 < 10 or num2 < 10): return num1 * num2 num1Str = str(num1) num2Str = str(num2) ……

阅读全文

继续折腾 maven 编译提速

之前折腾过一次 https://zrj.me/archives/1886 但是效果并不理想 我想要的效果是:通过一些配置的方式,来控制 maven 只编译指定的文件,不编译多余的文件,(哪怕那些文件在那里) 搜到这里有一个答案, https://stackoverflow.com/ques… 点赞很高,看起来有用,但是实际测试了一下,感觉并没有生效,还是编译了很……

阅读全文

Mac Finder 默认显示形式

又开始用很不习惯的 Mac 了,没办法 用了两天就遇到一个问题,访达,(以前叫 Finder,非得搞个中文名,不过这个貌似是监管政策的问题,就不吐槽他们了),说回这个访达啊,他每次打开,每个文件夹下面展示的形式还不一样,有些是图标,有些是列表,有些又是预览图之类的,他的这个图标,排列也是奇葩,经常搞着搞着,就……

阅读全文

kafka 启动报错

虚拟机上的 kafka 被强制断电之后,重新启动的时候报错 [2019-01-03 15:57:46,279] INFO Creating /brokers/ids/1 (is it secure? false) (kafka.utils.ZKCheckedEphemeral) [2019-01-03 15:57:46,294] INFO Result of znode creation is: NODEEXISTS (kafka.utils.ZKCheckedEphemeral) [2019-01-03 15:57:46,295] F……

阅读全文