Loading... # amd yes! | 组件 | 产品 | 价格,渠道 | 备注 | | ---------------- | --------------------------------------------------------------- | -------------------- | ------ | | cpu | AMD;R9 7950x 盒装(板 u 套装) | 4619,pdd | [jd](https://item.jd.com/100039537667.html) | | 主板 | 技嘉;电竞雕 WIFI B650M AORUS PRO AX | 0 | [jd](https://item.jd.com/100042368439.html) | | 内存 | 金百达;银爵,32GB x 2 套装,DDR5 6400 C32,海力士 A-die 颗粒 | 1284,pdd | [jd](https://item.jd.com/100046655844.html) | | 固态存储 | 致态;Tiplus 7100,1t,长江原厂颗粒 | 492,pdd | [jd](https://item.jd.com/10079976018181.html) | | | 梵想;铝片高速固态 QLC,PCIe 4.0 7200MB/s,2t | 806,pdd | | | 电源 | 海韵;focus gx650w,全日系金牌全模,14 cm | 596,jd | [jd](https://item.jd.com/100007186422.html) | | 散热(cpu) | COOLLEO 酷里奥;倚天 P60T V3,黑色性能版,双塔 6 热管 | 261,pdd | [jd](https://item.jd.com/10099761123199.html) | | 散热,机箱风扇 | 伊科贝拉;玄冥普 1800 转,FBD(无光)黑色正叶 | 17 x 3 = 51,pdd | [pdd](https://mobile.yangkeduo.com/goods1.html?goods_id=593177321830&page_from=23) | | 机箱 | 未知玩家;X200 手提小机箱 MATX ,jojo 定制图 | 268,pdd | [jd](https://item.jd.com/100070489290.html) | | | | 7571 | | | 机械存储 | 西部数据;WUH721414ALE6L4 14T 7200 SATA3 企业级氦气硬盘 | 1298,淘宝 | [tb](https://item.taobao.com/item.htm?abbucket=17&id=624523855339&ns=1) | | | | 7571 + 1298 = 8849 | | | 其他耗材 | 扎带 宽 2.5mm 长 15cm 100 条 | 5.9,pdd | | | | 像素 miku 机箱贴纸 53 张不重复 | 6,pdd | | | | miku chibi 角色机箱贴纸 65 张不重复 | 4.9,pdd | | 对这颗 u 的感觉只有:买之前、收到但未拆封时、拆封见真容、上机、查 aida64、查 cpuz、第一次运行熟悉的十分耗时的命令但是突然一下子就完成了 ![对了还有这个](e:\Picture\markdown\fbac51a432dfbcf812f65631a553fea7.png) ## network 网络拓扑信息如下,需要到 192.168.9.1 路由器里配置相关静态 ip 地址 | ip | dev | | ----- | ----------------- | | 9.1 | gateway | | | | | 9.2 | matx | | 9.3 | pve | | 9.4 | pve / wrt / wan | | 9.5 | pve / wrt / lan | | | | | 9.6 | wkyuu | | 9.7 | mac air | | 9.8 | android | ## xinfo 1. 参照 [win10/win11系统安装教程(新装、重装)](https://zhuanlan.zhihu.com/p/93127323) 安装 windows 系统,使用图吧工具箱测试性能 2. 清空 u 盘启动盘状态,恢复成普通 u 盘 1. `diskpart`,使用 `?` 查看帮助 2. `list disk` 查看硬体磁盘信息,找到 u 盘设备,这里是 `磁盘 2` 3. 因此 `select disk 2` 4. 清空:`clean` 5. 创建主分区:`create partition primary` 6. 选择该分区:`select partition 1` 7. 格式化该分区:`format fs=ntfs quick`,fs 还可选 fat32,一般是为空间较小的 u 盘准备的 8. 分配一个驱动器号:`assign`(这一步一般会在格式化后自动完成并识别出来,如果没有就手动分配) ## new storage 新买了一块 2t 的 ssd,插上 ubuntu 开机时可能不识别,需要按照以下操作: 1. `lsblk` 查看新增的固态名称,这里是 nvme0n1 2. 对其格式化:`fdisk /dev/nvme0n1`, 1. 输入 `n` 开始创建分区,这里 `p` 和 `e`,如果只想用来存数据,则选择 p 即可,然后一路回车默认即可 2. 再次输入 `p` 可以查看分区表,确认分区已经创建 3. 输入 `w` 写入分区表,然后会自动退出 3. `partprobe` 刷新系统的分区表信息,此时再 `lsblk` 就能看到 nvme0n1 有 disk 信息了 4. 想要系统能够使用该固态,需要将该固态修改成 ext4 文件系统:`sudo mkfs.ext4 /dev/nvme0n1p1` 5. 修改完成后即可挂载:`sudo mount /dev/nvme0n1p1 /mnt/nvme0n1` 6. 性能测试:`sudo apt-get update && sudo apt-get install fio`,然后简单测试:`sudo fio --name=randwrite --ioengine=libaio --direct=1 --rw=randwrite --bs=4k --numjobs=1 --size=1G --time_based --runtime=30 --group_reporting --allow_mounted_write=1 --filename=/dev/nvme0n1` ## ddns 首先确定有公网 ip,然后选择域名,推荐使用域名服务商 Dynadot,搭配使用 [ddns-go](https://github.com/jeessy2/ddns-go.git) 很方便,操作方法 [参考](https://www.dynadot.com/zh/community/help/question/set-up-DNS) ## pve 规划:有以下硬盘配置的存储设备,打算装一个 pve 作为主系统,虚拟化管理 istoreos、kali 两个系统,作为 nas + 游戏服务器 + 工作机 ```bash root@schale:~# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS sda 8:0 0 3.6T 0 disk └─sda1 8:1 0 128M 0 part sdb 8:16 0 5.5T 0 disk └─sdb1 8:17 0 128M 0 part sdc 8:32 0 3.6T 0 disk └─sdc1 8:33 0 128M 0 part sdd 8:48 0 5.5T 0 disk └─sdd1 8:49 0 128M 0 part sde 8:64 0 3.6T 0 disk └─sde1 8:65 0 128M 0 part sdf 8:80 0 3.6T 0 disk └─sdf1 8:81 0 128M 0 part sdg 8:96 0 3.6T 0 disk └─sdg1 8:97 0 128M 0 part sdh 8:112 0 3.6T 0 disk └─sdh1 8:113 0 128M 0 part sdi 8:128 0 5.5T 0 disk └─sdi1 8:129 0 128M 0 part sdj 8:144 0 3.6T 0 disk └─sdj1 8:145 0 128M 0 part nvme0n1 259:0 0 931.5G 0 disk ├─nvme0n1p1 259:1 0 1007K 0 part ├─nvme0n1p2 259:2 0 1G 0 part /boot/efi └─nvme0n1p3 259:3 0 930.5G 0 part ├─pve-swap 252:0 0 8G 0 lvm [SWAP] ├─pve-root 252:1 0 96G 0 lvm / ├─pve-data_tmeta 252:2 0 8.1G 0 lvm │ └─pve-data 252:4 0 794.3G 0 lvm └─pve-data_tdata 252:3 0 794.3G 0 lvm └─pve-data 252:4 0 794.3G 0 lvm ``` ### pve basic 1. 可能会因为 ip 不对的问题无法访问 pve 的 web 界面,需要手动修改网络信息: 1. `ip a` 查看网卡信息,这里是一个网口 `enp6s0` 和一个 wlan 网口 `wlp5s0` 2. 然后修改网卡信息:`nano /etc/network/interfaces` ```ini auto lo iface lo inet loopback iface enp6s0 inet manual iface wlp5s0 inet manual auto vmbr0 iface vmbr0 inet static address 192.168.9.3/24 gateway 192.168.9.1 bridge-ports enp6s0 bridge-stp off bridge-fd 0 source /etc/network/interfaces.d/* ``` 3. 重启网络:`systemctl restart networking.service` 2. 在 pve 安装常用的工具 1. 先配置 `/etc/apt/sources.list`,使用 ustc 的 debian 源,参考如下 ```ini deb http://mirrors.ustc.edu.cn/debian bookworm main contrib non-free non-free-firmware deb http://mirrors.ustc.edu.cn/debian bookworm-updates main contrib non-free non-free-firmware ``` 1. 同时可以将 `/etc/apt/sources.list.d/pve-enterprise.list` 中的内容注释掉(如果没有订阅企业版 pve 的话) 2. 然后配置 ustc 的 pve 源:`echo "deb https://mirrors.ustc.edu.cn/proxmox/debian/pve bookworm pve-no-subscription" > /etc/apt/sources.list.d/pve-no-subscription.list` 3. ustc 的 ceph 源:`source /etc/os-release`,`echo "deb https://mirrors.ustc.edu.cn/proxmox/debian/ceph-$(ceph -v | grep ceph | awk '{print $(NF-1)}') $VERSION_CODENAME no-subscription" > /etc/apt/sources.list.d/ceph.list` 4. 替换 pve 的 gpg 验证:`cp /etc/apt/trusted.gpg.d/proxmox-release-bookworm.gpg /etc/apt/trusted.gpg.d/proxmox-release-bookworm.gpg.backup`,`wget http://mirrors.ustc.edu.cn/proxmox/debian/proxmox-release-bookworm.gpg -O /etc/apt/trusted.gpg.d/proxmox-release-bookworm.gpg` 2. 更新 `apt update` 3. 安装工具 `apt install sudo zsh vim git iperf net-tools` 3. 挂载系统中的机械硬盘 1. 查看所有的机械盘信息:`lsblk` ```bash ┌──(root㉿pve)-[~] └─# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS sda 8:0 0 3.6T 0 disk └─sda1 8:1 0 128M 0 part sdb 8:16 0 5.5T 0 disk └─sdb1 8:17 0 128M 0 part sdc 8:32 0 3.6T 0 disk └─sdc1 8:33 0 128M 0 part sdd 8:48 0 5.5T 0 disk └─sdd1 8:49 0 128M 0 part sde 8:64 0 3.6T 0 disk └─sde1 8:65 0 128M 0 part sdf 8:80 0 3.6T 0 disk └─sdf1 8:81 0 128M 0 part sdg 8:96 0 3.6T 0 disk └─sdg1 8:97 0 128M 0 part sdh 8:112 0 3.6T 0 disk └─sdh1 8:113 0 128M 0 part sdi 8:128 0 5.5T 0 disk └─sdi1 8:129 0 128M 0 part sdj 8:144 0 3.6T 0 disk └─sdj1 8:145 0 128M 0 part nvme0n1 259:0 0 931.5G 0 disk ├─nvme0n1p1 259:1 0 1007K 0 part ├─nvme0n1p2 259:2 0 1G 0 part /boot/efi └─nvme0n1p3 259:3 0 930.5G 0 part ├─pve-swap 252:0 0 8G 0 lvm [SWAP] ├─pve-root 252:1 0 96G 0 lvm / ├─pve-data_tmeta 252:2 0 8.1G 0 lvm │ └─pve-data-tpool 252:4 0 794.3G 0 lvm │ ├─pve-data 252:5 0 794.3G 1 lvm │ └─pve-vm--100--disk--0 252:6 0 60.4G 0 lvm └─pve-data_tdata 252:3 0 794.3G 0 lvm └─pve-data-tpool 252:4 0 794.3G 0 lvm ├─pve-data 252:5 0 794.3G 1 lvm └─pve-vm--100--disk--0 252:6 0 60.4G 0 lvm ┌──(root㉿pve)-[~] └─# df -h Filesystem Size Used Avail Use% Mounted on udev 16G 0 16G 0% /dev tmpfs 3.1G 1.4M 3.1G 1% /run /dev/mapper/pve-root 94G 18G 72G 20% / tmpfs 16G 46M 16G 1% /dev/shm tmpfs 5.0M 0 5.0M 0% /run/lock efivarfs 128K 36K 88K 29% /sys/firmware/efi/efivars /dev/nvme0n1p2 1022M 12M 1011M 2% /boot/efi /dev/fuse 128M 16K 128M 1% /etc/pve tmpfs 3.1G 0 3.1G 0% /run/user/0 ``` 可以看到有 10 块机械硬盘没有被挂载,且只用了很小一部分的 ssd 作为 pve 的系统盘 2. 先格式化机械硬盘:`fdisk /dev/sda`,然后 `d` 删除分区,`n` 新建分区,默认分区号 `1`,默认起始和结束扇区,`w` 完成修改 3. 为空的机械硬盘创建文件系统 `mkfs -t ext4 /dev/sda1` 4. 创建目录并挂载:`mkdir -p /mnt/disk1`,`mount /dev/sda1 /mnt/disk1` 5. 配置自动挂载,需要编辑 `/etc/fstab` 文件,在末尾加入信息 `/dev/sda1 /mnt/disk1 ext4 defaults 0 0`,示例如下: ```ini # <file system> <mount point> <type> <options> <dump> <pass> /dev/pve/root / ext4 errors=remount-ro 0 1 UUID=41F2-21AB /boot/efi vfat defaults 0 1 /dev/pve/swap none swap sw 0 0 proc /proc proc defaults 0 0 /dev/sda1 /mnt/disk1 ext4 defaults 0 0 ``` 修改完成后,输入 `systemctl daemon-reload` 重载配置,此时再 `df -h` 就可以看到已经挂载上了 6. 有 10 块盘,就循环配置并挂载、写入文件即可 1. `mkdir -p /mnt/disk01-5.5t /mnt/disk02-5.5t /mnt/disk03-5.5t /mnt/disk04-3.6t /mnt/disk05-3.6t /mnt/disk06-3.6t /mnt/disk07-3.6t /mnt/disk08-3.6t /mnt/disk09-3.6t /mnt/disk10-3.6t` 2. `touch /tmp/mount.sh && chmod +x /tmp/mount.sh`: ```bash #/usr/bin/env bash mount /dev/sdb1 /mnt/disk01-5.5t mount /dev/sdd1 /mnt/disk02-5.5t mount /dev/sdi1 /mnt/disk03-5.5t mount /dev/sda1 /mnt/disk04-3.6t mount /dev/sdc1 /mnt/disk05-3.6t mount /dev/sde1 /mnt/disk06-3.6t mount /dev/sdf1 /mnt/disk07-3.6t mount /dev/sdg1 /mnt/disk08-3.6t mount /dev/sdh1 /mnt/disk09-3.6t mount /dev/sdj1 /mnt/disk10-3.6t ``` 3. `vim /etc/fstab` ```ini # <file system> <mount point> <type> <options> <dump> <pass> /dev/pve/root / ext4 errors=remount-ro 0 1 UUID=41F2-21AB /boot/efi vfat defaults 0 1 /dev/pve/swap none swap sw 0 0 proc /proc proc defaults 0 0 /dev/sdb1 /mnt/disk01-5.5t ext4 defaults 0 0 /dev/sdd1 /mnt/disk02-5.5t ext4 defaults 0 0 /dev/sdi1 /mnt/disk03-5.5t ext4 defaults 0 0 /dev/sda1 /mnt/disk04-3.6t ext4 defaults 0 0 /dev/sdc1 /mnt/disk05-3.6t ext4 defaults 0 0 /dev/sde1 /mnt/disk06-3.6t ext4 defaults 0 0 /dev/sdf1 /mnt/disk07-3.6t ext4 defaults 0 0 /dev/sdg1 /mnt/disk08-3.6t ext4 defaults 0 0 /dev/sdh1 /mnt/disk09-3.6t ext4 defaults 0 0 /dev/sdj1 /mnt/disk10-3.6t ext4 defaults 0 0 ``` `systemctl daemon-reload` 4. `reboot` 4. 到 `web/数据中心/存储/添加` 选择添加目录,参考:ID 随便输可以与前文一致(`disk01-5.5t`),目录就选择对应的 `/mnt/disk`(`/mnt/disk01-5.5t`),内容选磁盘映像;此时应该可以在左侧看到已挂载的硬盘 5. 其他设置 1. PVE 开机总是进入initramfs 无法正常进入系统,[参考](https://www.bilibili.com/read/cv21618228/);`sed 's/GRUB_CMDLINE_LINUX_DEFAULT="quiet"/GRUB_CMDLINE_LINUX_DEFAULT="rootdelay=10 quiet"/g' /etc/default/grub` 2. pve 的存储中,有个 `local` 和 `local-lvm` 1. `local`,就是 PVE 的根目录,同时还可以用于存储 iso 镜像 2. `local-lvm`,专门特化用于存储虚拟镜像,也就是 pve 的节点存放的地方,由于在初始化时一般没有挂载其他盘,则 pve 默认将当前的盘分开成两种系统,当新建虚拟机时,一般放入到这个逻辑卷中 ### iStoreOS 安装 [iStoreOS](https://www.istoreos.com/),用于管理软路由以及 nas 存储,[安装参考](https://post.smzdm.com/p/a7nd00ql/) 1. 下载 [镜像文件](https://fw0.koolcenter.com/iStoreOS/x86_64/istoreos-22.03.7-2024080210-x86-64-squashfs-combined.img.gz),由于 qemu 无法识别 img 格式的文件,直接选择下载 `squashfs.iso.gz` 格式的就好,然后将文件解压缩后主动将其挂载到硬盘 2. pve web 里 1. 创建虚拟机,名称 `iStoreOS`,VM ID 为 100,高级里的开机自启动勾上 2. 操作系统处选择不使用任何介质 3. 磁盘删除掉 4. cpu 1 插槽 2 核心,cpu type 选 host 5. 内存 4096MiB 6. 网络桥接到 vmbr0,模型选 VirtIO 3. 然后将下载好的 gz 文件上传到 `/tmp` 1. 解压:`gunzip istore-squashfs.iso.gz` 2. 挂载镜像:`qm importdisk 100 /tmp/istoreos-squashfs.img local-lvm`,挂载完成会显示 *Successfully imported disk as 'unused0:local-lvm:vm-100-disk-1'* 3. 然后回到 `web/数据中心/pve/100` 1. 硬件,将未使用的硬盘绑定到 scsi0,这里可以顺便增加 scsi0 的容量,我加了 58g 2. 硬件,添加硬盘,SCSI,存储就选择之前挂载的机械硬盘,磁盘大小是 GiB 需要换算(使用微软计算器),5.5TiB 填入 5680GB 即可,3.6TiB 的就填 3725GB,格式选择 raw(为了在 pve、或其他设备可以直接共享访问该硬盘数据);多块机械硬盘就添加多次 3. 选项,引导顺序将 scsi0 移到第一位 4. 开机(如果报错 *TASK ERROR: KVM virtualisation configured, but not available. Either disable in VM configuration or enable in BIOS.* ,则需要在主机的 bios 里开启虚拟化) 4. 见到 *iStoreOS is ready* 成功开机,按回车开始配置 iStoreOS,输入 `quickstart` 开始进行配置 1. 第一项 `Show Interfaces` 可以发现网络 ip 被 dhcp 自动配置到 `192.168.9.x` 了 2. 选择 `Change LAN IP`,修改如下:`192.168.9.4`、`255.255.255.0` 3. 修改完成后,在网段内输入 `http://192.168.9.4` 进入 iStoreOS 的配置界面,预设账密是 `root/password` 4. 然后到路由器里配置静态 ip,即 `iStoreOS` 的 mac 到 192.168.9.4 5. 使用 ssh 连接到终端,默认登录账密也是 `root/password`,然后参照 [init-a-new-vps-host](https://www.majo.im/index.php/wkyuu/342.html) 配置 iStoreOS 1. 新建用户 wkyuu:`groupadd -g 1000 wkyuu`、`useradd -s /bin/ash -g wkyuu -G adm,users,docker -u 1000 -d /home/wkyuu -m wkyuu`、`passwd wkyuu` 2. 为 root 和 wkyuu 配置 ssh 免密登录,这里由于 iStoreOS 使用的是 dropbear ssh,在本地创建一个文件,输入 `authorized_keys` 里的内容,然后在 `web/系统/管理权/SSH密钥` 里将其上传,该文件会被放置到 `/etc/dropbear/authorized_keys`,然后还要正常创建 `~/.ssh/authorized_keys` 文件并写入 3. 将 wkyuu 添加到 docker 组:`usermod add -aG docker wkyuu` 6. (可选)为 iStoreOS 系统目录扩容,如果是后续调整加盘,但是系统里没有自动将其挂载,则需要手动分区 1. 输入 `lsblk` 查看未利用情况 ```bash root@nas:~# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS sda 8:0 0 60.4G 0 disk ├─sda1 8:1 0 128M 0 part /boot │ /boot ├─sda2 8:2 0 256M 0 part /rom └─sda3 8:3 0 2G 0 part /overlay/upper/opt/docker /overlay ``` 2. 使用 `fdisk /dev/sda` 操作磁盘信息 1. 删除分区:一进去就输入 `d`,然后选择分区 `3` 2. 创建分区:然后输入 `n`,选择分区类型为主分区 `p`,分区号 `3`,起始和结束扇区都默认即可 3. 完成修改:输入 `w` 即可 3. 然后重启 `reboot` 即可看到更改 7. 磁盘阵列(nas) 1. 在 `web/系统/磁盘管理` 中可以看到已经成功挂载的机械硬盘及其容量 2. 进入 `web/网络存储/磁盘阵列`,创建磁盘阵列 1. 各种 raid 的区别: | 类型 | 磁盘利用率 | 原理 | 缺点 | | --------- | ------------- | ---------------------------------------------------------------------------------------------------------- | ---------------------------- | | raid 0 | 100% | 数据被分割并同时写入多块硬盘,使得读写速度提升 | 一块盘坏,全部坏 | | raid 1 | 50% | 平均分成两组,当数据被存到其中一组时,也会被完全复制到另一组硬盘上,一块硬盘损坏,数据可以从镜像盘中恢复 | 吃空间 | | raid 5 | 减去 1 块盘 | 数据分布在所有硬盘上,使用奇偶校验信息来在 1 块硬盘损坏的情况下恢复数据 | 写入速度较慢,特别是小文件 | | raid 6 | 减去 2 块盘 | 数据分布在所有硬盘上,使用奇偶校验信息来在 2 块硬盘损坏的情况下恢复数据 | 写入性能更差,配置起来复杂 | | raid 10 | 50% | 结合 raid 0 和 raid 1,先将数据镜像到两组硬盘,然后对镜像盘进行条带化 | 吃空间 | 2. 确定 raid 后,选择硬盘来创建,我这里选择了 raid 5,但是由于既有 5.5t 又有 3.6t,会导致全部按照 3.6t 的大小来组建 raid 5,会浪费 6t 左右的空间,因此还可以分开组 raid:7 块 3.6t 的盘组 raid 5,3 块 5.5t 的盘组 raid 5;两者方案对比:`5.5 * 2 + 3.6 * 6 = 32.6`、`3.6 * 9 = 32.4`,方便起见,可以选择 10 块全组 raid 5,由于最后是将 raid 阵列抽象成单个硬盘,因此组多个 raid 可以将数据分成多种类型来存储,例如 `3.6 * 6` 全部存种子下载的文件,`5.5 * 2` 存相片、录像文件 3. 按照 `5.5 * 2 + 3.6 * 6 = 32.6` 的方式组建 raid 5,得到两个路径:`/mnt/md0`、`/mnt/md1`,之后存储数据只要选择这两个路径就可以了,剩下的交给 raid 5 系统来实现 3. 进入 `web/网络存储/统一文件共享` 1. 常规设置启用 2. 在 用户 选项卡添加用户账密 3. 在 统一文件共享 选项卡,路径 `/mnt/data_mdx`,名称 `storage`,用户勾选上刚才创建的用户 4. 保存并应用 4. 在 windows 上,资源管理器添加网络位置:`\\nas\storage`(这里的 `nas` 是主机名),选择一个名称即可 5. 在 linux 上,需要手动 mount,debian 系参考如下 1. `sudo apt update && sudo apt install cifs-utils` 2. `mkdir -p /mnt/samba sudo mount -t cifs //192.168.9.4/storage /mnt/samba -o username=user`,然后输入密码 3. 挂载完成后即可进入并访问 8. 配网,科学上网 1. 到 [openclash](https://github.com/vernesong/OpenClash.git) 获取 ipk 文件:[luci-app-openclash-x.ipk](https://github.com/vernesong/OpenClash/releases/download/v0.46.014-beta/luci-app-openclash_0.46.014-beta_all.ipk) 2. 安装前置:`opkg update`,`opkg install coreutils-nohup bash iptables dnsmasq-full curl ca-certificates ipset ip-full iptables-mod-tproxy iptables-mod-extra libcap libcap-bin ruby ruby-yaml kmod-tun kmod-inet-diag unzip luci-compat luci luci-base` 3. 在 `web/iStore/手动安装` 选择下载好的 ipk 文件安装即可在 `web/服务/OpenClash` 里看到,第一次点进去可能会要求下载内核,选择一个可连接的 cdn 下载即可 9. 访问配置界面,下面是一些可以安装的插件(`web/iStore/全部软件`) 1. `iStoreX`,安装完成后点击打开,选择 nas 模式, 2. `openclash`,除了要安装内核、上传配置文件外,还需要到 `web/服务/OpenClash/覆写设置/常规设置` 最下方删除掉默认生成的一个账户,否则在使用代理时会报 407 错误,设置完成后点击应用设置 © 允许规范转载 赞 如果觉得我的文章对你有用,请随意赞赏