[大模型实战 03预备] 云端炼丹房 2:Kaggle 上手指南
[大模型实战 03预备] 云端炼丹房 2:Kaggle 上手指南
核心摘要 (TL;DR)
- 痛点:Colab 免费额度耗尽,或者单张 T4 显存(16GB)无法满足更大参数模型的微调需求。
- 方案:利用 Kaggle 提供的 每周 30 小时免费双路 T4 GPU (T4 x2) 算力。
- 技巧:通过 手机号验证 解锁联网权限,利用 Kaggle Datasets 实现模型的持久化存储。
- 目标:作为 Colab 的强力替补(甚至上位),搭建备用云端炼丹环境。
前言
上一篇中,本来想直接写到Google Colab的大模型推理脚本,让各位友人们感受一下在全参数7B模型的能力,但是折腾了很久,Colab读driver老是失败,当我想直接下载到云端主机而不是driver的时候,GPU的额度已经耗尽。索性今天在Kaggle的这篇博文中来讲,应该之后也主要用Kaggle来进行云端开发,毕竟Colab额度少,还得盯着,长时间不看会断掉连接。
好,我们来先介绍一下今天的主角,Google 旗下的另一个神器:Kaggle。Colab如果说其本职就是模型训练,那Kaggle本身其实是一个数据科学的竞赛平台,毕竟是数据科学竞赛嘛,那自然得需要算力资源,Kaggle为了方便,也发挥了谷歌大善人的优良品质,免费提供了大方的计算资源。跟Colab对比起来,Kaggle的优势就是,更稳定,更方便,资源给的额度更多。
1. Kaggle Notebooks 核心概念
Kaggle 的核心编程环境叫 Kernels (现在统称 Notebooks),不用害怕,诶,它就是我们昨儿刚认识的熟人云端服务器版的Jupyter Notebook,但是和Colab不太相同的是Kaggle的文件结构,它明显得区分了输入区域,输出区域,暂存区域, 这是也我们刚上手容易懵的地方:
- Input (
/kaggle/input):只读区域。这里存放你上传的数据集或挂载的模型。读取速度极快,但无法写入。 - Output (
/kaggle/working):可读写区域。这是你的主工作区,代码运行结果、下载的模型必须存在这里。但注意,重启 Session 后,这里的内容如果不保存为 Dataset 也会消失。 - Temp (
/kaggle/temp):临时暂存区。空间较大(只有当前会话有效),适合下载解压临时的大文件。

2. 快速上手:注册与“解锁”
2.1 注册与关键验证 (必做)
我们新用户登录创建notebook后会发现,我们没有硬件加速设备可选。

根本原因就是咱们没有进行手机验证,哈哈哈,可以理解,毕竟本身kaggle就不用绑卡,加上手机验证可能会杜绝掉一大部分计算资源滥用。
- 访问 Kaggle 官网 并注册账号。
- 关键步骤:点击右上角头像 -> Settings。
- 找到 Phone Verification(手机验证)。必须完成这一步,否则无法开启 GPU 和 Internet(联网)功能。

认证完毕就可以使用GPU资源了

如果继续做了Identity verification之后,可以使用TPU资源,不过我们暂时用不到,目前的GPU资源已经够咱们大玩一场了。
2.2 创建笔记本
- 点击左侧菜单栏的 Create -> New Notebook。
- 进入编辑器界面,你会发现界面布局比 Colab 更加紧凑且功能分区明确。

2.3 界面布局速览
- 工作区:位于右侧,显示了Input->我们的挂载资源,上传的数据集和模型等等,Output->我们输出的结果资源。notebook内容速览,以及下面的session options环境快捷配置等等

- 快捷操作栏: 在代码区上方,和Colab差别不大,可以快速运行,插入单元格,复制粘贴等等

- 代码区:和Colab一样, 标准的 Jupyter 单元格。
注意,
- 和Colab不一样的是,Kaggle的文件名没有后缀,不用加ipynb后缀
- 咱们的硬件加速(GPU/TPU计算资源)被放到了顶部菜单栏的Settings中的accelerator中了
- 和Colab不同,因为Kaggle是为竞赛服务,很多竞赛是要求模型不联网的,所以我们在训练模型的时候,需要手动开启网络,也在顶部菜单栏的Settings中,点击Turn On Internet打开即可联网下载模型或者数据集。

- 密钥管理被放到了顶部菜单栏的Add-ons下了

3. 环境配置:开启双显卡与联网
Kaggle 默认环境是 CPU 且 断网 的。我们需要手动“解除封印”。
3.1 开启联网 (Internet On)
可以按照刚才说的在顶部菜单栏打开,也可以在右侧边栏的 Session Options 中,找到 Internet 选项。将开关拨到 On。
注意:如果没有手机验证,此选项为灰色不可用。
3.2 开启 GPU 加速 (T4 x2)
在右侧边栏找到 Accelerator。
下拉选择 GPU T4 x2。
- GPU T4 x2:两张显卡,约 30GB 显存,适合大模型推理和微调。
- GPU P100:单张旧架构卡,虽然速度快但显存仅 16GB,通常不推荐。
开启后,顶部会显示 Session Storage 和 GPU Quota(每周 30 小时额度,通常周六刷新)。
点击自己的头像,可以看见自己的额度GPU Quata
3.3 验证双卡环境
输入并运行以下代码,确认我们是否真的拥有了两张显卡:
1 | !nvidia-smi |
你应当能看到 两张 Tesla T4 显卡的列表 (GPU 0 和 GPU 1)。

4. 实战:下载并运行大模型
在 Kaggle 上使用模型主要有两种“流派”:代码下载派 和 原生挂载派。
方式一:利用 HuggingFace CLI 下载 (工程化推荐)
这种方式最灵活,适合需要精确控制模型版本的情况。由于 Kaggle 没有 Google Drive,我们将模型下载到 /kaggle/working/ 目录。
步骤 1:安装与配置
1 | # Kaggle 预装库很多,但 transformers 版本可能滞后,建议更新 |
点击顶部菜单 Add-ons -> Secrets,添加 HF_TOKEN(你的 HuggingFace 访问令牌)。
步骤 2:下载脚本
1 | import os |

方式二:Add Input (Kaggle 原生方式)
这是 Kaggle 最强大的功能。你可以直接在网页端搜索现成的模型,像挂载 U 盘一样挂载进来,不消耗下载流量和时间。
- 点击右侧边栏的 Add Input。
- 选择 Models 标签页。
- 搜索
Qwen2.5。 - 点击 + 号添加。

- 选择FRAMEWORK选择Transformers架构, VARIATION选择7b-instruct, 之后的博文会跟各位友人解释这些参数的差别

- 模型会直接出现在
/kaggle/input/目录下(只读),路径通常长得像/kaggle/input/qwen2.5/transformers/7b-instruct/1。
5. 加载模型与双卡推理
拥有双卡 T4 后,加载模型时有一个关键参数:device_map="auto"。它会自动将模型切分到两张显卡上,从而让我们能运行更大的模型。
1 | import torch |
6. 进阶:如何持久化保存?(Save Version)
Kaggle 没有 Google Drive,那怎么保存下载好的模型或训练结果呢?
答案:把 Output 变成 Dataset。
当你的代码运行完毕,模型保存在
/kaggle/working后。点击右上角的 Save Version 按钮。
选择 Save & Run All (重新跑一遍),必须等到下方弹出的保存任务完成。

保存成功后,你可以去主页的Your Work点击刚才的Notebook,进入Output 标签页里,点击最右边的Output的三个点,然后点击 New Dataset。

这样,我们刚才的模型就变成了一个可以在其他 Notebook 里直接 Add Input 的数据集了!
PS:除开自训练的特殊模型和一些在Input找不到的模型,最好都直接使用Input导入更为快捷
7. 常见问题 (Q&A)
Q: Colab 和 Kaggle 我该选谁?
A:
- Colab: 适合快速实验、挂载 Google Drive 方便。但 T4 只有一张,且最近封号较严。
- Kaggle: 适合需要大显存(T4 x2)的任务。环境更稳定,且有 30 小时/周的明确额度,不用担心用到一半被踢下线。
Q: 为什么我的代码报错 Internet connection is closed?
A: 这是一个经典错误。请检查右侧边栏的 Internet 开关是否为 On。如果开关是灰色的,请检查是否完成了账号的 手机号验证。
Q: /kaggle/working 里的文件重启后还有吗?
A: 没有了。Kaggle 的 Session 也是临时的。如果需要持久化,请务必使用 Save Version 功能将其保存为 Dataset,或者在代码最后加一段上传到 HuggingFace Hub 的代码。