Centos 7 安装PyMuPDF

接引前文,昨天把代码写好测试 ok 之后,以为就万事大吉了。然而,今天往服务器上部署的时候,直接给整麻了。问题一个接一个,错误一堆接一堆。直接让人破防了。

对于 linux 的发行版,我并没有神马偏见,主要是用过的版本也不多,但是,不得不说那个 centos 是真烂,也不知道为啥那么多人喜欢用这个破系统。

Continue Reading

更新Blog服务器配置

从14年开始使用这台vps服务器,最近发现jetpack出了问题。貌似是更新php版本之后,新的php-xml模块没有安装,尝试更新相关模块的时候首先要更新epel-release,问题是更新了epel-release之后yum命令就挂了,提示找不到xz!

于是问题就演化成了先有鸡还是先有蛋的问题,如果要解决这个问题那么:

  1. 删除epel-release 7,安装6,然后yum安装xz,xz安装成功之后更新epel-release
  2. 直接编译安装xz:
    wget https://sourceforge.net/projects/lzmautils/files/latest/download?source=typ_redirect  
    mv download\?source\=typ_redirect xz.gz tar -zxvf xz.gz  
    make &make install
    
Continue Reading

阿里云 EC2 CentOS 6.0 系统分区扩容

阿里云的虚拟主机磁盘空间满了,这个主要是用来放blog的,所以并没有其他的数据盘。所有的数据都是直接放到/dev/vda1磁盘下的,数据库也是在这个盘下。从阿里云的后台扩容了磁盘发现还需要登陆进行扩容,于是开始按照教程操作,事实证明给出的文档(https://help.aliyun.com/document_detail/25452.html?spm=a2c4g.11186623.6.788.666a3f87QwRXFB)里面方法比较蛋疼,对于扩展系统分区不大适用。 

后来发现貌似看的文档有问题,如果要扩展系统盘应该看这个https://help.aliyun.com/document_detail/111738.html?spm=5176.2020520101.0.0.44d34df5aZCEKE。 这个就尴尬了 smile ,没看好文档。

安装growpart

yum install cloud-utils-growpart

然后对系统分区进行扩容:

growpart /dev/vda 1

Continue Reading

谷歌mod_pagespeed 1.2,Apache网站优化工具

faster

mod_pagespeed 是谷歌于 2010 年底推出 Apache 服务器自动优化模块,可以对基于 Apache 的网站的内容进行自动优化以及智能缓存,从而有效提升网页的加载速度,据统计可以提升 50%。
详细信息:https://developers.google.com/speed/docs/mod_pagespeed/release_notes
下载地址:https://developers.google.com/speed/docs/mod_pagespeed/download

#cd /tmp/
#32位机
wget https://dl-ssl.google.com/dl/linux/direct/mod-pagespeed-stable_current_i386.rpm
rpm -i mod-pagespeed-stable_current_i386.rpm
#64位机
wget https://dl-ssl.google.com/dl/linux/direct/mod-pagespeed-stable_current_x86_64.rpm
rpm -i mod-pagespeed-stable_current_x86_64.rpm
/etc/init.d/httpd restart

也谈《Linux脚本自动备份网站数据到Dropbox》

其实要写这个完全是受小白童鞋的影响,看了她的《Linux脚本自动备份网站数据到Dropbox(上)》之后想着试试,结果看了下那篇文章最后的链接,拷贝了两个脚本,不试不知道一试发现神马都没法用! =(话说写代码都不用测试的么? 😎

修改之后的代码应该是这个样纸滴:
数据库备份代码(保存文件格式一定要保存为Unix UTF-8,要不是跑不动滴)

#!/bin/bash
#sql_everyday_backup.sh
echo "################################################################"
echo "#Backup sql stabase everyday                                   #"
echo "#Mars Security                                                 #"
echo "#By:obaby                                                      #"
echo "#http://www.h4ck.ws                                            #"
echo "################################################################"
MYSQL_USER="root" // 数据库的用户名
MYSQL_PASS="123456789"// 数据库的密码
MYSQL_DATABASE="mars"//要备份的数据库
SqlFileName=sql_h4ck_$(date +%y%m%d).tar.gz //备份数据库名称

echo " > Start dump the sql database......." 
mysqldump -u$MYSQL_USER -p$MYSQL_PASS  $MYSQL_DATABASE>h4ckbackup.sql
echo " > Zip the sql file "
tar zcvf $SqlFileName h4ckbackup.sql
echo " > Start uploading file now....."
sh dropbox_uploader.sh upload $SqlFileName
sh dropbox_uploader.sh delete sql_h4ck_$(date -d -10day +%Y%m%d).tar.gz
rm -f $SqlFileName
rm -f h4ckbackup.sql
echo " > All Finished ,have a joy!"
echo "###############################################################"
Continue Reading