没显卡也能玩!Ollama 本地大模型保姆级入门指南

作者:字节逆旅日期:2026/1/22

如果你想在自己电脑上跑 AI,又不希望数据被大厂拿走,Ollama 绝对是目前最香的选择。不用配复杂的 Python 环境,不用求爷爷告奶奶找 API Key,只要一键安装,就能实现“大模型自由”。不过我的电脑很早就有了python环境了,忘记啥时候安装的,虽然在python方面还是个菜鸟。

1. 怎么安装

直接去 Ollama 官网 下载。有1个多G,先有个心理准备。

  • 第一步: 安装完后,它会躲在右下角任务栏。
  • 第二步: 打开终端(CMD 或 PowerShell),输入下面的命令。这是最关键的一步,它会自动下载并启动对话。
    Bash
1ollama run qwen2.5:1.5b  

当你看到进度条跑完,出现 >>> Send a message 时,说明 AI 已经在你硬盘里安家了。 如果不想直接启动,就用这个命令:

1    ollama pull qwen2.5:1.5b
2

2. 避坑指南(这些坑我都帮你踩过了)

  • 不要在 Python 里面运行 Python: 很多人会习惯先输入 python 进去,然后再敲命令。千万别!运行脚本是在普通的 CMD 路径下直接输入 python test.py
  • 模型名字要写全: 代码里的 model='qwen2.5:1.5b' 必须带上后缀。如果不写,它默认去找 7b 版本,没下载的话就会报 502 错误

3. 高级玩法:手摸手教你写一个 Agent

普通的聊天只是“你问我答”,但 Agent(智能体) 厉害的地方在于:它能根据你的需求,自己去调用工具

把下面的代码存成 agent_test.py

Python

1import ollama
2
3# 1. 准备一个“假装能查天气”的工具
4def get_weather(city):
5    return f"{city}的天气是:大晴天,25度!"
6
7# 2. 告诉 AI 这个工具怎么用
8tools = [{
9    'type': 'function',
10    'function': {
11        'name': 'get_weather',
12        'description': '查询某个城市的天气',
13        'parameters': {
14            'type': 'object',
15            'properties': {'city': {'type': 'string'}},
16            'required': ['city'],
17        },
18    }
19}]
20
21# 3. 核心逻辑
22def ask_ai(prompt):
23    res = ollama.chat(model='qwen2.5:1.5b', messages=[{'role': 'user', 'content': prompt}], tools=tools)
24    
25    if res['message'].get('tool_calls'):
26        # AI 自动识别出需要调用 get_weather 函数
27        city = res['message']['tool_calls'][0]['function']['arguments']['city']
28        print(f"--- 内部观察:Agent 决定调用工具查【{city}】的天气 ---")
29        result = get_weather(city) 
30        
31        final = ollama.chat(model='qwen2.5:1.5b', messages=[
32            {'role': 'user', 'content': prompt},
33            res['message'],
34            {'role': 'tool', 'content': result}
35        ])
36        return final['message']['content']
37    return res['message']['content']
38
39print(ask_ai("北京天气怎么样?"))
40

4. 真实运行效果

当你退出所有多余的窗口,在文件夹里输入 python agent_test.py,你会看到极其解压的一幕:

1C:\Users\Admin> python agent_test.py
2--- 内部观察:Agent 决定调用工具查【北京】的天气 ---
3北京今天的天气非常好,是大晴天,气温约 25 度,非常适合出门走走!
4

注意看: 第一行输出是我在代码里写的“内部观察”,这证明了 AI 真的理解了你的话,并精准抓取了“北京”这个参数发给了 Python 函数。

实际上,我们的函数中并没有写这些回答,多出的部分内容就是大模型自己的发挥。

你可以参考这个流程,看清楚数据是怎么流动的:

  1. 用户: “北京天气如何?”
  2. 模型: (思考)我需要调用 get_weather,城市是“北京”。
  3. Python 函数: (执行)返回 "大晴天,25度"
  4. 模型: (加工)拿到数据,结合它的语言模型能力,扩充成:“北京今天天气非常好,是大晴天,气温约 25 度非常适合出门走走!”

还是挺有意思的,强烈建议你试一试!

总结

Ollama 让 AI 不再是遥不可及的网页链接,而是你电脑里的一个“数字员工”。你可以先从 1.5b 这种小模型玩起,等玩明白了,直接换成更强的模型,你的 Agent 能力瞬间就能进化,上限取决于你的想象力。


没显卡也能玩!Ollama 本地大模型保姆级入门指南》 是转载文章,点击查看原文


相关推荐


一个致力于为 C# 程序员提供更佳的编码体验和效率的 Visual Studio 扩展插件
追逐时光者2026/1/14

前言 今天大姚给大家分享一个致力于为 C# 程序员提供更佳的编码体验和效率的 Visual Studio 扩展插件:Codist。 Codist 插件介绍 Codist 是一个使用 .NET 编写、开源免费的 Visual Studio 扩展插件,致力于为 C# 程序员提供更好的编程体验和生产效率。它不仅强化了语法高亮、快速信息提示、导航栏、滚动条和显示质量,还集成了自动版本号更新、括号自动补全、支持高级编辑功能的智能工具栏、代码分析等功能。 支持 Visual Studio 版本 Visu


2026:一名码农的“不靠谱”年度规划
苏渡苇2026/1/6

又到了一年一度列计划的时候,我对着屏幕敲下“2026年度目标”这几个字,感觉就像在代码里写下了一个暂时没有具体实现的接口——定义很美好,实现嘛,有待观察。 一、工作要干得出彩,还得有点新花样 说真的,每年我都告诉自己,今年一定要写出那种能让同事看了忍不住赞叹“妙啊”的代码。但实际情况往往是,我对着三年前自己写的代码陷入沉思:“这真是我写的吗?当时怎么想的?” 新点子倒是不缺,缺的是能让这些点子安全落地还不引起生产事故的魔法。我现在的原则是:每个炫酷的想法,都必须配套一个“搞砸了怎么办”的预案。


基于 YOLOv8 的驾驶员疲劳状态识别系统实战(含完整源码与可视化界面)
我是杰尼2025/12/28

基于 YOLOv8 的驾驶员疲劳状态识别系统实战(含完整源码与可视化界面) 一、项目背景与研究意义 随着汽车保有量的持续增长,疲劳驾驶已成为交通事故的重要诱因之一。据统计,在高速公路和长途驾驶场景中,由于驾驶员长时间保持同一姿态,容易出现注意力下降、反应迟钝、频繁眨眼、打哈欠等疲劳特征,从而显著提升事故风险。 传统的疲劳检测方法多依赖以下方式: 车载方向盘行为分析 心率、脑电等生理传感器 人工巡查与事后分析 这些方法或成本较高,或依赖额外硬件,或难以规模化部署。相比之下,基于计算机视觉的疲劳


基于大衍数构造的稀疏校验矩阵LDPC误码率matlab仿真,对比不同译码迭代次数,码率以及码长
我爱C编程2025/12/19

目录 1.引言 2.算法测试效果 3.算法涉及理论知识概要 4.MATLAB核心程序 5.完整算法代码文件获得 1.引言        基于大衍数的LDPC校验矩阵构造,本质是利用大衍数序列的周期性和互素性,设计具有规则稀疏结构的校验矩阵,兼顾性能与实现复杂度。基于大衍数列构造准循环低密度校验码的方法,该方法利用大衍数列固定项差对应的值单调递增的特点,构造出的校验矩阵具有准循环结构,节省了校验矩阵的存储空间。 2.算法测试效果 3.算法涉及理论知识概要


【产品运营必备】数据分析实战宝典:从入门到精通,驱动业务增长(附相关材料下载)
小飞象—木兮2025/12/11

木木自由,专注更多数据分析,经营分析、财务分析、商业分析、数据治理、数据要素、数据资产干货以及资料分享木木自由·   数据分析·领地在产品迭代与运营增长的赛道上,数据分析早已不是“加分项”,而是驱动决策的“核心引擎”。很多产品、运营人员面对数据时常常陷入困境:看着后台一堆指标无从下手,明明做了活动用户却不买账,想优化产品却找不到具体方向。其实,数据分析的核心并非复杂的公式,而是“立足场景、解决问题”的思维的方法。在此,【数据分析·领地】整理了一套《数据分析实战宝典》,将围绕产品与运营的高频场景,


LLM 扫盲:什么是 Tokens?
mCell2025/12/2

同步至个人网站:LLM扫盲: 什么是tokens LLM 基础:什么是 Tokens? GPT 5.1 发布已经有一段时间了,LLM(大语言模型)的能力边界再一次被拓宽。对于应用开发者而言,虽然模型越来越智能,但 API 的计费逻辑和底层限制依然没有变:Token 始终是那个核心计量单位。 很多人对 Token 有误解,认为它等同于字符(Character)或单词(Word)。这种误解往往导致两个问题:一是预估 API 成本时出现较大偏差,二是无法精确控制 Prompt 的上下文长度,导致模型

首页编辑器站点地图

本站内容在 CC BY-SA 4.0 协议下发布

Copyright © 2026 XYZ博客