tjm 拆下舊b1
ksf 拆下舊B1
tjm 拆下舊b1
ksf 拆下舊B1
tjm 修改 a2z.fhl.net 聖經系統,修改 android app,但仍無法處理掉閃退問題
小雪 iOS新譯本上線、NUI不能搜尋的Bug修正
歲修定2/5
certbot renew –noninteractive
systemctl restart httpd
systemctl restart postfix
systemctl restart dovecot
其他機器需要 cd /etc/letsencrypt ; rsync -avz root@bbs.fhl.net:/etc/letsencrypt/* .
tjm 初步完成現代客語譯本上架,尚未完全搞定,iOS有問題
宇哲 左邊經卷選擇部分重構完成
ksf Arbiter機器survay 完成
小雪 處理了4個bug回報
1.先把DNS中的service.fhl.net 指到 bbs那臺去。
2.把DNS中的a2z.fhl.net 也指到 bbs那臺,並且把CDN中的cache拿掉
3.到 bbs那臺renew
4. renew完之後,把 /etc/letsencrypt/live 複製到service這一臺
5. restart httpd postfix 等相關服務
6.復原DNS的紀錄。
ksf 電池來了
恩洋 學系統
tjm 處理系統問題
CentOS 7以後,內定檔案系統改用xfs。所以Quota的運作方式略有不同。
quota username 還是可以回報使用者Quota狀況
quota -s username 可以用「人話」回報使用者Quota狀況
設定quota 比較麻煩,要用底下的指令來設定 -u 是user -g 是group
xfs_quota -x -c ‘limit -u bsoft=200m bhard=250m username’ device
使用gluster這種分散式系統,為的就是希望有個「穩定安全」的環境,所以通常會使用replication的機制 。
gluster的replication 有兩種,一種就是LAN裡面用的「同步 replication」,另一種就是散佈內容出去的「非同步Georeplication」,前者就是用多個brick(儲存單元)來同步備援。這種機制應該是整個儲存系統的核心。通常一開始建立之後,就會自動運作,直到有kernel更新或者其他硬體錯誤導致的某個brick離線。
離線後,系統會自動修復(3.3版以後就會自動修復),不過修復中的brick資料是錯的,且跟RAID一樣,同時一定還要有正確的brick提供修復。也就是如果是兩台雙備援,就不能兩台同時處於修復狀態。必須等修復的那台修復完成了,另一台才能離線。因此,了解目前修復的狀況怎樣,是非常重要的管理機制。要了解系統修復狀況,只要下:
gluster volume heal Volume_name info
就可以知道,一定要裡面都沒有entries了才算修復完成。當然,短期內因為系統使用中也會有幾個檔案出問題等待修復,但等一下應該就會消失。
如果要分散資料到slave 主機去,就要用 非同步Georeplication 。這種功能也很容易設定:
Slave端要先把
http://download.gluster.org/pub/gluster/glusterfs/3.4/3.4.0/EPEL.repo/glusterfs-epel.repo
放到 /etc/yum.repos.d
裝
yum install glusterfs-cli glusterfs-fuse glusterfs-server glusterfs-geo-replication glusterfs-libs
啟動 glusterd 與 glusterfsd
然後參考一下:
http://www.gluster.org/community/documentation/index.php/HowTo:geo-replication
即可。
ssh 免密碼搞定以後,
gluster volume geo-replication Volume_SYNC slave_server:/home start
即可啟動
gluster volume geo-replication Volume_SYNC slave_server:/home status
即可了解系統狀態
喔!對了,如果有兩台以上互相備援的master機器,應該會希望每一台master都可以replication 給slave吧?
這時請把 /var/lib/glusterd/geo-replication/*.pem 複製到其他台master機器去,這樣就可以同步執行 georeplication 了
yum install glusterfs glusterfs-fuse
mount -t glusterfs host:/XXX_SYNC /DIST
修改 /etc/fstab
/dev/sda3 /home ext4 defaults,usrjquota=aquota.user,grpjquota=aquota.group,jqfmt=vfsv0 0 1
如果以前就用了 quota 那就先quota off 才能 remount 分割區
quotaoff -avug
touch /aquota.user /aquota.group
chmod 600 /aquota.*
mount -o remount /home
quotacheck -avugm
quotaon -avug