2026年 04月 23日 - 基于 3x-ui + Docker Compose 的全链路实践

    主要内容

    在复杂网络环境中,如何快速、稳定且可控地搭建一套高可用代理服务,是很多工程师绕不开的命题。本文基于 3x-ui + Docker Compose,从底层架构到实战部署,深入解析代理服务的设计与实现,并结合 VLESS + Reality 等现代协议,构建一套兼顾性能、安全与隐蔽性的解决方案。同时,围绕常见问题(端口、防火墙、Docker 环境等)提供系统化排障思路,帮助你实现真正“开箱即用”的工程化落地。

    2026年 04月 14日 - M1 Max 32GB 本地AI模型推荐总表(2026)

    M1 Max 32GB 本地 AI 模型进阶实测与调优 (2026-04)

    硬件基准与内存压榨 (The 24GB Wall)

    在 2026 年,即便 M2/M3/M4 系列已普及,M1 Max (32GB) 凭借 400GB/s 的带宽在推理响应(Prefill/Decode)上依然能打。但在 32GB 机器上,VRAM 的硬性上限是 24,576MB (75%)

    实测观测

    • 安全区 (< 18GB):模型全速运行,系统响应丝滑。
    • 警戒区 (18-22GB):开启多标签页(Chrome/VSCode)后会出现轻微系统掉帧。
    • 死亡区 (> 24GB):GPU 与 CPU 频繁抢占内存,Token 输出跌至 0.5 - 1.2 tk/s
    核心组件 推荐方案 实测性能 (Decode) 内存占用 (Wired)
    通用主力 Qwen-2.5-32B-Instruct (Q4_K_M) ~12.5 tk/s ~19.2 GB
    逻辑推理 DeepSeek-R1-Distill-32B (Q4_K_S) ~9.8 tk/s ~18.5 GB
    极致响应 Llama-3.1-8B-Instruct (Q8_0) ~58.0 tk/s ~8.5 GB
    图像旗舰 Flux.1 Schnell (GGUF-Q5_K) ~22s / 20 steps ~12.0 GB

    2025年 09月 25日 - ghfast.top提供github文件代理加速下载服务

    官方介绍

    终端命令行

    支持终端命令行 git clone , wget , curl 等工具下载.
    支持 raw.githubusercontent.com , gist.github.com , gist.githubusercontent.com 文件下载.
    注意:不支持 SSH Key 方式 git clone 下载.
    

    git clone

    git clone https://ghfast.top/https://github.com/stilleshan/dockerfiles
    git clone 私有仓库
    Clone 私有仓库需要用户在 Personal access tokens 申请 Token 配合使用.
    git clone https://user:your_token@ghfast.top/https://github.com/your_name/your_private_repo
    

    wget & curl

    wget https://ghfast.top/https://github.com/stilleshan/dockerfiles/archive/master.zip
    wget https://ghfast.top/https://raw.githubusercontent.com/stilleshan/dockerfiles/main/README.md
    curl -O https://ghfast.top/https://github.com/stilleshan/dockerfiles/archive/master.zip
    curl -O https://ghfast.top/https://raw.githubusercontent.com/stilleshan/dockerfiles/main/README.md
    

    参考资料

    2025年 04月 09日 - kuboard模拟登录进行能力集成

    Kuboard 模拟登录与能力集成实践

    Kuboard 是一款高效的 Kubernetes 可视化管理工具。但在自动化运维场景下,由于其部分管理功能(如 SSO 接入、集群导入)未完全开放标准 API,或者 API 文档不够完善,直接集成往往面临权限校验瓶颈。本文记录一种通过模拟浏览器登录获取 KuboardToken,进而实现自动化集群管理的务实方案。

    2025年 04月 08日 - Tabby 本地 AI 编码助手实战体验分享

    Tabby:私有化 AI 编码助手部署实践

    在寻找 GitHub Copilot 替代方案的过程中,Tabby 是目前最成熟的开源选择之一。它支持本地部署,适配主流 LLM(如 Llama 3、DeepSeek),且完美集成于 VSCode 和 JetBrains 系列 IDE。对于有代码隐私敏感性或企业内网开发需求的场景,Tabby 几乎是必选项。