基于yolov11+django+deepseek的学生课堂行为检测系统带登录界面python源码+onnx模型+精美web界面

作品简介

效果展示

登录界面



主界面



基于 YOLO11 的目标检测系统,支持图片、视频和实时摄像头检测,集成 DeepSeek AI 分析功能。

功能特性

  • 图片目标检测
  • 视频文件检测
  • 实时摄像头检测
  • DeepSeek AI 智能分析
  • 可调节的检测参数(置信度、IoU)
  • 美观的用户界面

【测试环境】

windows10

anaconda3+python3.10

torch 2.3.1

ultralytics 8.4.7

Django==5.2.11

【模型可以检测出 8 类别】

Drowsy-Sleeping

Eating-Drinking

Focused-Thinking

Looking down

Looking upfront

Raising Hand

Using-Laptop-Writing

Using-Phone

【训练数据集介绍】

数据集格式:YOLO 格式(不包含分割路径的 txt 文件,仅仅包含 jpg 图片以及对应的 yolo 格式 txt 文件)

图片数量(jpg 文件个数):1277

标注数量(txt 文件个数):1277

训练集数量:894

验证集数量:258

测试集数量:125

标注类别数:8

所在 GitHub 仓库:firc-dataset

标注类别名称(注意 yolo 格式类别顺序不和这个对应,而以 labels 文件夹 classes.txt 为准):[‘Drowsy-Sleeping’,‘Eating-Drinking’,‘Focused-Thinking’,‘Looking down’,‘Looking upfront’,‘Raising Hand’,‘Using-Laptop-Writing’,‘Using-Phone’]

每个类别标注的框数:

Drowsy-Sleeping(困倦-睡觉)框数 = 584

Eating-Drinking(进食-饮水)框数 = 185

Focused-Thinking(专注-思考)框数 = 343

Looking down(低头)框数 = 375

Looking upfront(抬头正视前方)框数 = 1058

Raising Hand(举手)框数 = 144

Using-Laptop-Writing(使用笔记本-书写)框数 = 408

Using-Phone(使用手机)框数 = 368

总框数=3465

使用标注工具:labelImg

标注规则:对类别进行画矩形框

重要说明:暂无

特别声明:本数据集不对训练的模型或者权重文件精度作任何保证

图片预览:





标注例子:



【训练信息】

训练集图片数=939

验证集图片数=269

训练 map=61.2%

训练精度(Precision)=64.4%

训练召回率(Recall)=60.4%

【验证集精度】

类别=Map50(%)

MAP50 all=61

Drowsy-Sleeping=74

Eating-Drinking=60

Focused-Thinking=51

Looking down=42

Looking upfrnotallow=68

Raising Hand=59

Using-Laptop-Writing=57

Using-Phnotallow=79

安装依赖

pip install -r requirements.txt

数据库迁移

Python manage.py makemigrations
Python manage.py migrate

运行项目

Python manage.py runserver

访问 ​​HTTP://127.0.0.1:8000​

默认登录信息

  • 用户名: admin
  • 密码: admin

项目主要文件结构

yolo11-Django-deepseek-det-system/
├── manage.py                 # Django 管理脚本
├── yolo_detection/           # 项目配置目录
│   ├── __init__.py
│   ├── settings.py          # 项目设置
│   ├── urls.py               # 主 URL 配置
│   └── wsgi.py               # WSGI 配置
├── detection/                # 检测应用
│   ├── __init__.py
│   ├── apps.py               # 应用配置
│   ├── forms.py              # 表单定义
│   ├── models.py             # 数据模型
│   ├── urls.py               # 应用 URL 配置
│   └── views.py              # 视图函数
├── templates/                # 模板目录
├── test_img/                # 测试图片目录
│   ├── index.HTML            # 主页面
│   └── login.HTML            # 登录页面
├── static/                   # 静态文件目录
├── media/                    # 媒体文件目录
│   └── uploads/              # 上传文件目录
├── requirements.txt          # 依赖列表
├── weights/                # 模板目录
│   ├── yolov11n.onnx            # 模型文件
│   └── results.png            # 训练日志图片
│   ├── class_names            # 模型类别文件
│   └── 模型说明.txt            # 训练简单介绍和训练过程 map0.5 参数

技术栈

  • Django 4.2+
  • YOLO11 (Ultralytics)
  • OpenCV
  • DeepSeek API
  • Chart.js
  • HTML5/CSS3/JavaScript

注意事项

  • 确保 ​​yolov11n.onnx​​ 模型文件在项目 weights 目录
  • DeepSeek API 密钥需要在 ​​settings.py​​ 中配置
  • 建议使用 Python 3.8+

常用评估参数介绍

在目标检测任务中,评估模型的性能是至关重要的。你提到的几个术语是评估模型性能的常用指标。下面是对这些术语的详细解释:

Class: 这通常指的是模型被设计用来检测的目标类别。例如,一个模型可能被训练来检测车辆、行人或动物等不同类别的对象。

Images: 表示验证集中的图片数量。验证集是用来评估模型性能的数据集,与训练集分开,以确保评估结果的公正性。

Instances: 在所有图片中目标对象的总数。这包括了所有类别对象的总和,例如,如果验证集包含 100 张图片,每张图片平均有 5 个目标对象,则 Instances 为 500。

P(精确度 Precision): 精确度是模型预测为正样本的实例中,真正为正样本的比例。计算公式为:Precision = TP / (TP + FP),其中 TP 表示真正例(True Positives),FP 表示假正例(False Positives)。 R(召回率 Recall): 召回率是所有真正的正样本中被模型正确预测为正样本的比例。计算公式为:Recall = TP / (TP + FN),其中 FN 表示假负例(False Negatives)。

mAP50: 表示在 IoU(交并比)阈值为 0.5 时的平均精度(mean Average Precision)。

IoU 是衡量预测框和真实框重叠程度的指标。mAP 是一个综合指标,考虑了精确度和召回率,用于评估模型在不同召回率水平上的性能。在 IoU=0.5 时,如果预测框与真实框的重叠程度达到或超过 50%,则认为该预测是正确的。

mAP50-95: 表示在 IoU 从 0.5 到 0.95(间隔 0.05)的范围内,模型的平均精度。这是一个更严格的评估标准,要求预测框与真实框的重叠程度更高。在目标检测任务中,更高的 IoU 阈值意味着模型需要更准确地定位目标对象。mAP50-95 的计算考虑了从宽松到严格的多个 IoU 阈值,因此能够更全面地评估模型的性能。 这些指标共同构成了评估目标检测模型性能的重要框架。通过比较不同模型在这些指标上的表现,可以判断哪个模型在实际应用中可能更有效。

常见问题

目标检测训练中,Mean Average Precision(MAP)偏低可能有以下原因:

原因一:欠拟合:如果训练数据量过小,模型可能无法学习到足够的特征,从而影响预测效果,导致欠拟合,进而使 MAP 偏低。因此可以加大数据集数量

原因二:小目标:如果数据集包含大部分小目标则一般会有可能产生 map 偏低情况,因为小目标特征不明显,模型很难学到特征。

原因三:模型调参不对:比如学习率调整过大可能会导致学习能力过快,模型参数调节出现紊乱

原因四:过拟合(现在模型基本不存在这种情况):如果模型在训练数据上表现非常好,但在验证或测试数据上表现较差,可能是出现了过拟合。这通常是因为模型参数过多,而训练数据量相对较小,导致模型学习到了训练数据中的噪声或特定模式,而无法泛化到新的数据。如今现在目标检测模型都对这个情况做的很好,很少有这种情况发生。

原因五:场景不一样:验证集验证精度高,测试集不行,则有可能是与训练模型场景图片不一致导致测试 map 过低 针对以上原因,可以采取以下措施来提高 MAP:

(1)优化模型结构:根据任务和数据集的特点选择合适的模型,并尝试使用不同的网络架构和构件来改进模型性能。

(2)增强数据预处理:对数据进行适当的预处理和增强,如数据归一化、缺失值填充、数据扩增等,以提高模型的泛化能力。

(3)调整损失函数:尝试使用不同的损失函数或组合多种损失函数来优化模型性能。

(4)优化训练策略:调整学习率、批次大小、训练轮数等超参数,以及使用学习率衰减、动量等优化算法来改善模型训练效果。

(5)使用预训练模型:利用在大规模数据集上预训练的模型进行迁移学习,可以加速模型收敛并提高性能。 (6)增加数据集数量

提供的文件

Python 源码

yolo11n.onnx 模型(不提供 pytorch 模型)

训练的 map,P,R 曲线图(在 weights\results.png)

测试图片(在 test_img 文件夹下面)

注意提供数据集在数据集地址.xlsx 文件中

创作时间: