2025-5-26 myluzh
NOTES
0x01 包含的功能
在 RDP 会话期间允许 GPU 加速和 RemoteFx。
将捕获帧率设置为 60 FPS,以获得更流畅的视觉体验。
减少压缩以提高 RDP 的图像质量。
调整系统响应能力以增强用户界面交互。
禁用带宽限制以减少与网络相关的速度下降。
允许较大的 MTU 数据包,这可以提高网络性能。
优化显示和通道带宽的流量控制(RemoteFX 设备,包括控制器)。
消除人为延迟,以便通过 RDP 实现更直接的交互。
选择禁用 WDDM 驱动程序,转而使用 XDDM 驱动程序,以获得更好的 Nvidia 显卡性能(默认注释掉)。
0x02 UpinelBetterRDP.reg
Windows Registry Editor Version 5.00
; +----------------------------------------------------------------------+
; | Upinel/BetterRDP - RDP 优化设置 |
; +-------...
阅读全文>>
标签: gpu rdp
评论(0)
(133)
2025-5-16 myluzh
NOTES
0x01 编写mcp server
基于FastMCP框架的异步工具服务器,提供了多种实用的功能,例如端口可达性测试、域名解析、通过SSH查看服务器监听端口和防火墙规则等。
from mcp.server.fastmcp import FastMCP
import socket
import asyncio
# 创建FastMCP实例
mcp = FastMCP("Demo")
@mcp.tool()
async def ping_port(host: str, port: int, timeout: float = 2.0) -> str:
"""
测试指定主机的端口是否可达。
Args:
host: 目标主机名或IP地址
port: 要测试的端口号
timeout: 超时时间(秒),默认为2秒
Returns:
str: 端口测试结果
"""
try:
# 创建异步任务
loop = async...
阅读全文>>
标签: python llm mcp
评论(0)
(151)
2025-3-10 myluzh
NOTES
0x01 问题描述
部署完nextcloud,点击登录后,一直卡在登录界面,控制台提示:Refused to send form data to '/login' because it violates the following Content Security Policy directive: "form-action 'self'".
0x02 解决方案
把自己的域名加上
cd /nextcloud_data/lib/public/AppFramework/Http
vim ContentSecurityPolicy.php
# 加上网址域名即可
/** @var array Domains which can be used as target for forms */
protected $allowedFormActionDomains = [
'\'self\'','pan.nextcloud.com'
];
参考链接:
https://developer.aliyun.com...
阅读全文>>
标签: nextcloud
评论(0)
(392)
2025-2-10 myluzh
NOTES
0x01 前言
有一台日志es,需要把旧的es数据迁移到新的es上。
在迁移Elasticsearch (ES) 数据时,使用 elasticdump 是一个常见的方法。elasticdump 是一个开源工具,用于将 Elasticsearch 集群中的数据导出和导入。
0x02 部署elasticdump
1、由于我这边是k8s集群,直接跑一个pod起来即可。镜像是node:14,自带npm。方便安装elasticdump。
apiVersion: apps/v1
kind: Deployment
metadata:
name: es-migration
namespace: default
spec:
replicas: 1
selector:
matchLabels:
app: es-migration
template:
metadata:
labels:
app: es-migration
spec:
containers:
- name: es-migration
image: 1...
阅读全文>>
标签: elastic es elasticdump
评论(0)
(439)
2025-2-7 myluzh
NOTES
0x01 下载ChatGLM3大模型
# 创建存放模型的文件夹
mkdir -p /mnt/workspace/models && cd /mnt/workspace/models
# 下载大模型 https://modelscope.cn/models/ZhipuAI/chatglm3-6b/files
git lfs install
git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git
0x02 运行调试模型
下载ChatGLM3 web demo项目,用来运行调试调试模型
1、安装
mkdir -p /mnt/workspace/webcodes && cd /mnt/workspace/webcodes
git clone https://github.com/THUDM/ChatGLM3.git
# 如果报错就重新执行一次
cd /mnt/workspace/webcodes/ChatGLM3 && pip install -r requirements.txt
2、运行调试模型
测试模型...
阅读全文>>
标签: llm LLaMA-Factory ChatGLM3 大模型 微调
评论(0)
(443)
2025-2-6 myluzh
NOTES
0x01 安装ollama
1、安装ollama
(1)直接安装:https://ollama.com/download
(2)通过 docker:https://hub.docker.com/r/ollama/ollama/tags
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
2、设置ollama监听
docker跑起来的的ollama 只需要-p把11434 api端口暴露出来即可,
安装完成ollama后,默认只监听来自127.0.0.1,为了方便局域网内调用api,配置 Ollama 服务监听所有网络接口
# windows powershell 配置方法如下
PS C:\Users\myluzh> $env:OLLAMA_HOST = "0.0.0.0:11434"
#如果你希望永久设置环境变量,可以通过 PowerShell 设置系统环境变量,使其在所有会话中生效:
[System.Environment]::SetEnvironmentVariable("OLLAMA...
阅读全文>>
标签: ollama deepseek llm ai
评论(0)
(455)