博文

目前显示的是标签为“snapshot”的博文

GCP不同用户(的不同项目)之间转移实例/快照/映像/硬盘

图片
====== 首先 ====== 在GCP不同用户(的不同项目)之间,只能共享映像。不能共享实例、快照、硬盘。 ====== 环境 ====== 为了方便描述,假设: 我们要把proj1的实例转移到proj2中。 proj1的管理员是admin1,proj2的管理员是admin2。 ====== 步骤 ====== 一、在proj1中,新建映像 https://console.cloud.google.com/compute/imagesAdd 创建映像有两种来源: 1. 从实例创建映像 实质上是从硬盘创建映像。 创建过程会使实例停止。不推荐在实例运行过程中创建映像。 2. 从快照创建映像 二、在proj1中,添加admin2查看的权限 https://console.cloud.google.com/iam-admin/iam * 注:如果你添加的是所有者的话,还需要admin2收邮件确认一下。 三、在proj2中,创建实例,硬盘选择自定义映像

GCP快照体积特别大

图片
今天遇到个莫名其妙的问题,GCP做出来的快照特别大。 实际使用不到2GB的VPS,做出来快照有26GB。 解决方案:创建一个全为0的超大文件,用于填满剩余空间,再删除。 参考  https://blog.csdn.net/cywosp/article/details/9674757 在命令行执行: dd if=/dev/zero of=test bs= 100M count= 200 rm -f test 黄色部分 * 绿色部分 就是生成文件的总大小,根据实际情况来计算,要把剩余空间填满。但是 黄色部分 不能超过你目前的可用内存,否则命令执行不了。 再创建快照,占用空间就比较合理了。 ========= 后记 ========= 推测GCP的快照是根据硬盘物理bit来做的,而删除文件的时候只是在文件系统里做了标识,硬盘上物理的bit并没有清零。 对比Bandwagon的快照,应该是在文件系统层面做的,删除了的文件没有算到快照里去。

穷人没有大盘鸡 GCP还要抠着用

之前 已经搭了一个离线下载并上传到网盘的 Aria2 + rclone 的系统。 但这只是一个用来翻墙的小硬盘VPS,硬盘总空间只有5GB。装了各种功能以后,可用空间 只有3GB多一点。 用AriaNG操作Aria2离线下载的时候,没办法对一个种子中的文件分开单个下载并上传到网盘。特别是一开始只是一个磁力链接,对于Aria2系统来说,它并不知道这个种中包含多少文件。等种子文件下载完成之后,就自动开始下载全部文件了。 从另一方面来说,这个小VPS每月流量也只有500GB,离线下载再上传网盘,流量消耗是两倍的,下个250GB的种子流量就用光了? 之前 尝试过把超大的网盘直接rclone mount成一个文件夹,但是用于下载BT是不行的。

从Bandwagon的Backups里恢复

图片
虽说在做重大折腾的时候,会提前打snapshot备份,折腾完成也会打一个sticky的snapshot,不过也会遇到某次突发意外或者偶尔忘了打snapshot备份然后折腾失败的情况。 除了直接去找上次备份的snapshot,还可以在Bandwagon官方提供的Backups里面找找看有没有离现在更近一点的备份。比如,我找到3个Backups,根据备份的时间,我准备恢复其中一个,选择"Import to my Snapshots" 稍等片刻,就会在Snapshots里看到从Backup转换的Snapshot,恢复(restore)就行了。

The Hot3 in Last 30 Days

RackNerd VPS搭Hysteria2 HY2梯子 年付 $10.98 1G端口 3T流量 17G存储 1GB内存

强行重装 233boy的sing-box脚本 取消脚本报错退出的逻辑