Fork me on GitHub

凤鸣山

凤鸣山问丹

上虞的秋日,凤鸣山薄雾如纱。我沿石阶缓步而上,两旁古木参天,溪水泠泠作响,仿佛仍回荡着千年前炉火噼啪的余音。山腰处,一方“炼丹井”静卧于苔痕斑驳的石栏内,井水幽深,映不出魏伯阳的身影,却照见自己模糊的轮廓——这方寸水土,曾是他与弟子们埋首炼丹、叩问长生的地方。

山间传说里,魏伯阳炼成金丹后,以犬试药,犬倒地如死。两位弟子心生疑惧,弃丹而去;唯有一人笃信师道,愿同服共死。结果师徒与犬皆复苏飞升,而犹豫者终老山下。故事如山风拂过耳际,初听是仙迹,细思却如井水般冰凉:那“坚定”的信念,究竟该交付给谁?若丹本为毒,那“信”岂非成了引向深渊的绳索?

下山途中,偶遇一位老农在田埂上歇息。他笑谈:“如今谁还信什么金丹?但人总得信点什么吧,不然日子怎么过?”他信的是节气、是土地、是春种秋收的踏实。这朴素之“尚”,与魏伯阳的玄奥丹道相隔千年,却同样支撑着一种生活。吴晗先生曾言,社会风气之“尚”如潮汐涨落,或尚名节,或尚功利,或尚清谈——可无论何种“尚”,若只知随波逐流,不加省察,便如那两位弃丹弟子,既失了飞升之机,也未必真得了安稳。

归途车窗外,城市灯火渐次亮起,霓虹如新的“丹炉”,闪烁着财富、流量、速度的诱人光泽。我们这一代人,何尝不在各自的时代“炼丹”?只是炉中所炼,早已不是铅汞,而是对意义、价值与归属的渴求。然而,若只知追逐那最耀眼的光,却不肯停下脚步自问一句“此丹可服否?”,恐怕终将陷入另一种“假死”——身体活着,灵魂却已沉睡。

凤鸣山无凤鸣,唯有风过林梢。魏伯阳的丹炉早已冷透,但那口炼丹井却像一面古镜,照见所有时代人心深处的叩问:我们该信什么?又为何而信?

苏格拉底说:“未经省察的人生不值得过。”或许真正的“丹”,并非服食之物,而是那敢于审视自身信念的勇气——它不许诺飞升,却能让双脚在尘世站得更稳,让眼睛在迷雾中看得更清。

Continue reading →

Public Ollama Models

Public Ollama Models 2025-07-05

How to chat with Ollama models

Select an IP and model from the table below, then use them in this command:

# Start a conversation with a model
# Replace <IP> with an IP from the table below
# Replace <MODEL> with one of the models listed for that IP
curl -X POST http://<IP>:11434/api/chat -d '{
    "model": "<MODEL>",
    "messages": [{
        "role": "user",
        "content": "Hello, how are you?"
    }]
}'

Available Models

IP Models
222.70.88.44 qwen3:8b
deepseek-r1:8b
deepseek-r1:7b
qwen3:30b-a3b
nomic-embed-text:latest
bge-m3:latest
117.50.179.196 smollm2:135m
hf.co/IlyaGusev/saiga_nemo_12b_gguf:Q5_K_M
117.50.197.100 qwen2.5:7b
bge-m3:567m
qwen2.5vl:7b
117.50.164.136 qwen3:1.7b
nomic-embed-text:v1.5
qwen3:4b
llama3.2:3b-instruct-q5_K_M
106.14.202.11 mxbai-embed-large:latest
163.228.156.198 qwen3:8b-nothink
qwen3:8b
deepseek-r1:8b
qwen2.5:32b
qwen2.5-coder:7b
Qwen2.5-7B-Instruct-Distill-ds-r1-110k:latest
Qwen2.5-7B-Instruct:7b
Qwen2.5-7B-Distill-ds-r1-110k:7b
qwq:latest
smollm2:135m
qwen2.5:3B-Trained
deepseek-r1:32b
deepseek-r1:14b
llava:latest
nomic-embed-text:latest
qwen2.5:latest
deepseek-r1:7b
218.1.151.175 smollm2:135m
nomic-embed-text:latest
qwen2.5:latest
218.78.108.171 deepseek-r1:14b
deepseek-r1:7b
deepseek-r1:1.5b
117.50.245.70 smollm2:135m
qwen2.5:32b
qwen2.5:7b
gemma2:27b
gemma2:2b
qwen2.5:14b
deepseek-r1:14b
deepseek-r1:7b
gemma3:4b
nomic-embed-text:latest
deepseek-r1:1.5b
gemma3:12b
gemma3:27b
qwen2.5-coder:latest
unsloth.F16.gguf:latest
unsloth.Q8_0.gguf:latest
117.50.194.3 dengcao/Qwen3-Embedding-8B:Q5_K_M
dengcao/Qwen3-Embedding-4B:Q5_K_M
61.165.183.106 huihui_ai/deepseek-r1-abliterated:70b-llama-distill-q8_0
124.71.154.35 llama3.2:3b-instruct-q5_K_M
deepseek-r1:1.5b
nomic-embed-text:latest
117.50.174.178 smollm2:135m
qwen2.5:7b
deepseek-r1:8b
117.50.175.121 changji_medical_deepseek_r1:14b
changji_medical_deepseek_r1:32b
101.132.102.117 smollm2:135m
bge-m3:567m
deepseek-r1:1.5b
117.50.250.245 qwen3:8b_nothink
qwen3:8b
143.64.160.92 llama3.2:3b-instruct-q5_K_M
MartinRizzo/Ayla-Light-v2:12b-q4_K_M
58.246.1.174 llama3.2:3b-instruct-q5_K_M
qwen2.5:32b
61.172.167.153 deepseek-r1:7b
61.172.167.211 deepseek-r1:7b
61.169.115.204 nomic-embed-text:latest
deepseek-r1:32b
47.116.202.9 qwen3-no-think:latest
qwen3:latest
qwen3:8b
qwen:7b
llava:latest
mistral:7b-instruct
nomic-embed-text:latest
qllama/bge-reranker-v2-m3:latest
bge-large:latest
deepseek-r1:7b
bge-m3:latest
deepseek-r1:latest
deepseek-r1:1.5b
qwen2:latest
223.166.95.229 deepseek-r1:7b
deepseek-r1:14b
deepseek-r1:8b
qwen3:latest
qwen3:14b
qwen2.5vl:32b
qwen2.5vl:latest
qwen3:8b
gemma3:12b
gemma3:27b
llava:34b
llava:13b
mxbai-embed-large:latest
nomic-embed-text:latest
qwq:latest
codellama:13b
llama3.2-vision:latest
qwen2.5-coder:latest
qwen2.5-coder:14b
phi4:latest
phi3:14b
mistral:latest
llama3.3:latest
llama3.2:latest
llama3.1:latest
llama3:latest
llama3:70b
gemma2:latest
gemma2:27b
180.158.174.61 qwq:32b-q8_0
qwq:32b-16384context
qwq:32b
nomic-embed-text:latest
deepseek-r1:32b
deepseek-r1:14b
llama3.2-vision:11b
qwen2.5:32b
llama3.2:latest

Disclaimer

These Ollama model endpoints are publicly exposed interfaces found on the internet. They are listed here for informational purposes only. Please be aware that:

  • These endpoints are not maintained or controlled by us
  • The availability and stability of these services cannot be guaranteed
  • Use these services at your own risk
  • We take no responsibility for any issues or damages that may arise from using these endpoints

免责声明

本文列出的 Ollama 模型接口均来自互联网上公开暴露的端点。请注意:

  • 这些端点并非由我们维护或控制
  • 无法保证这些服务的可用性和稳定性
  • 使用这些服务需自行承担风险
  • 对于使用这些端点可能产生的任何问题或损失,我们不承担任何责任
Continue reading →

Public Ollama Models

Public Ollama Models 20250525

How to chat with Ollama models

Select an IP and model from the table below, then use them in this command:

# Start a conversation with a model
# Replace <IP> with an IP from the table below
# Replace <MODEL> with one of the models listed for that IP
curl -X POST http://<IP>:11434/api/chat -d '{
    "model": "<MODEL>",
    "messages": [{
        "role": "user",
        "content": "Hello, how are you?"
    }]
}'

Available Models

IP Models
123.60.64.205 llama3.2:3b-instruct-q5_K_M
deepseek-r1:1.5b
101.132.74.29 llama3.2:3b-instruct-q5_K_M
139.196.196.43 qwen3:32b
qwen3:30b-a3b
qwen2.5:72b-instruct
deepseek-r1:70b
223.166.61.66 qwen3:4b
qwen3:32b
mxbai-embed-large:latest
bge-m3:latest
nomic-embed-text:latest
qwen2.5-coder:32b
qwen2.5-coder:14b
qwen2.5:32b
qwen2.5:latest
mistral-small3.1:latest
codellama:13b
codellama:34b
codellama:70b
qwq:latest
deepseek-v2:16b
deepseek-coder-v2:latest
gemma3:12b
gemma3:latest
qwen2.5:3b
gemma3:1b
deepseek-r1:14b
deepseek-r1:32b
deepseek-r1:8b
deepseek-r1:7b
deepseek-r1:1.5b
106.75.235.214 llama3.1:8b
gemma3:27b
qwq:latest
deepseek-r1:70b
117.50.171.129 qwq:latest
qwen2.5-coder:32b
117.50.180.35 bge-m3:latest
116.232.26.17 qwen3:0.6b
qwen3:1.7b
117.50.176.34 qwen2.5:1.5b
qwen2.5:7b
qwen2.5:14b
222.64.131.253 llama3.2:3b-instruct-q5_K_M
qwen2.5:32b-instruct-q4_K_M
qwq:32b-q4_K_M
qwen2.5:32b
qwen2.5-coder:14b
sqlcoder:15b
deepseek-r1:14b
qwen2.5:14b
bge-m3:567m
qwen2.5:7b
nomic-embed-text:latest
qwen2.5:0.5b
123.60.5.218 mario:latest
llama3-backup:latest
llama3.2:latest
llama3.2:3b-instruct-q5_K_M
deepseek-r1:8b
218.1.223.134 llama3.2:3b-instruct-q5_K_M
smollm2:135m
deepseek-r1:1.5b
deepseek-r1:7b
deepseek-r1:8b
101.132.88.19 nomic-embed-text:latest
llama3.2:3b
llama3.2:1b
deepseek-r1:1.5b
114.95.209.211 nomic-embed-text:latest
qwen2.5-coder:latest
deepseek-r1:7b

Disclaimer

These Ollama model endpoints are publicly exposed interfaces found on the internet. They are listed here for informational purposes only. Please be aware that:

  • These endpoints are not maintained or controlled by us
  • The availability and stability of these services cannot be guaranteed
  • Use these services at your own risk
  • We take no responsibility for any issues or damages that may arise from using these endpoints

免责声明

本文列出的 Ollama 模型接口均来自互联网上公开暴露的端点。请注意:

  • 这些端点并非由我们维护或控制
  • 无法保证这些服务的可用性和稳定性
  • 使用这些服务需自行承担风险
  • 对于使用这些端点可能产生的任何问题或损失,我们不承担任何责任
Continue reading →

Plex Media Server

今天给大家推荐一款免费、开源的媒体播放器服务器,它允许您存储和流自己的媒体集合(如电影、电视剧、音乐、照片和家庭视频)到各种设备,例如智能手机、平板电脑、流媒体盒子和智能电视。

这款 Media Server 适用于各种操作系统,包括 Windows、macOS、Linux 和 freeBSD。它还可以安装在 NAS(网络附加存储)设备或 Raspberry Pi 上。

它是一款强大的流媒体播放器服务器,它允许您从本地存储添加媒体文件并进行流媒体化处理,使其能够在任何地方(本地局域网或者公网远程)的任何设备访问和播放。

下面就是我在家里局域网的搭建过程。

  1. 在一台 Windows 11 上安装 Media Server。下载地址是 Plex 官网
  2. 注册一个 Plex 账号,登录后会提示你安装 Plex Media Server。安装完成后,打开 Plex Media Server。
  3. 添加媒体文件夹。点击左上角的“+”号,选择要添加的媒体文件夹。Plex 会自动扫描该文件夹中的媒体文件。
  4. 设置媒体库。选择媒体类型(电影、电视剧、音乐等),并为媒体库命名。
  5. 等待 Plex 扫描媒体文件。扫描完成后,您可以在 Plex Media Server 中查看和播放媒体文件。

  1. 在其他设备上安装 Plex 客户端应用程序。Plex 客户端应用程序可在 Android、iOS、Windows、macOS 和智能电视上使用。
  2. 家里没有智能电视也没有关系,我在家里15年前Sony 电视通过外接一个Raspberry 树莓派也能搞定。

7.1 在树莓派上安装Kodi

7.2 Kodi 里安装该媒体软件的插件 (PM4K for Plex)。

这样打开这台老旧的非智能电视机,也能享受智慧的媒体生活。

Continue reading →

冬去春来

树与寒鸦:冬去春来的启示

二月的一个清晨,偶然驻足小区一棵光秃秃的树下,心生感触:这棵树是怎么熬过那严酷的寒冬? 正思索间,一只寒鸦落在了树枝上,短暂停留。它的出现,让我联想到,是否正是有了寒鸦的片留停留的作伴,才让这棵树在孤独中找到了支撑,从而挺过了寒冬?

接连数日,我记录下了这棵树的变化,从最初的孤单到逐渐焕发新生,见证了它如何在春光中复苏。

这使我不禁联想到人生亦是如此,寒来暑往,冬去春来,我们每个人都会经历低谷和高峰。在这过程中,找到支撑我们的信念至关重要,无论是家人的鼓励、朋友的支持,还是内心深处那份不灭的希望,都是我们在漫长寒冬中的寒鸦,为我们带来继续前行的力量。

正如那棵树,在最艰难的时刻找到了生存的意义,我们也应在逆境中寻找属于自己的光芒,怀抱希望,坚定地走向未来。这样,无论面对何种困难,我们都能够像这棵树一样,迎来属于自己的春天。

Continue reading →

All Tags

mindset

devops

book

ci

communication

jenkins

自媒体

hometown

geek life

cloud

ai