2025/9/1 逆向有效 项目简介 Claude2API 是一个将 Claude 网页服务转换为 OpenAI 兼容 API 的项目,支持识图、文件上传、思考输出等功能。 GitHub 项目: https://github.com/yushangxiao/claude2api 部署环境 系统: u
传统的MCP工具有个根本限制:只能运行一次性命令。你让它执行python manage.py runserver,它会立即退出,因为无法管理长时间运行的进程。这意味着AI永远看不到服务器的实际运行状态,只能生成代码然后盲目地希望它能工作。 核心突破:输出重定向 解决这个问题的关键在于将服务器的所有输
实现一个MCP服务器,让Claude能执行命令和编辑文件 基本思路 用FastMCP写了个文件操作+命令执行的服务器,限制在testworkspace目录内操作,避免搞坏系统。 from fastmcp import FastMCP mcp = FastMCP("File Editor & Comm
记录一次完整的Model Context Protocol实验,从本地STDIO到远程API调用的全流程踩坑与解决方案。 测试目标 构建一个Hello Claude MCP服务器,支持基础工具调用,并测试本地和远程集成方案。 实验环境 Python 3.10+ MCP SDK 1.13.0 Clau
LoRA核心原理 低秩假设的数学基础 LoRA(Low-Rank Adaptation)基于一个重要观察:神经网络微调时的权重变化矩阵通常具有很低的内在维度。 传统微调需要更新所有参数: W = W₀ + ΔW LoRA将权重变化分解为两个低秩矩阵的乘积: W = W₀ + BA 其中: W₀:
前言 本文记录了在 RTX 5080 16GB 显卡上成功训练 SDXL LoRA 的完整过程。虽然踩了不少坑,但最终找到了稳定可行的配置方案。 环境准备 硬件要求 显卡:RTX 5080 16GB(或其他 16GB+ 显存的显卡) 内存:推荐 32GB+ 存储:至少 50GB 可用空间 软件环境
环境信息 硬件: Jetson Orin Nano 系统: Ubuntu 20.04 + JetPack 目标: 在Docker容器中使用宿主机的CUDA/cuDNN/PyTorch环境 问题背景 Jetson设备预装了优化的CUDA、cuDNN和PyTorch环境,但在Docker容器中默认无法访
在开发过程中,我们经常需要管理多个Python进程的启动、停止和切换。本文介绍如何使用Flask构建一个进程管理系统,支持进程组管理、互斥控制和优雅退出。 核心架构 1. 进程状态管理 定义清晰的进程状态和系统状态: from enum import Enum from dataclasses im