该项目是基于Python和C++的OpenCV模型动物园与基准测试设计源码,共计212个文件,其中包括66个Python脚本、41个ONNX模型文件、23个YAML配置文件、22个Markdown文档、16个JPG图片文件、8个GIF动画文件、3个TXT文本文件、3个WebP图像文件、2个Gitignore配置文件以及2个PNG图像文件。该源码库旨在为OpenCV DNN模块提供丰富的预训练模型集合,并包含性能基准测试,以促进计算机视觉领域的研究与应用。
关键词
OpenCV 模型动物园 Python 编程 C++
目录结构
├── .gitattributes ├── .gitignore ├── LICENSE ├── benchmark ├── benchmark.py ├── color_table.svg ├── config ├── face_detection_yunet.yaml ├── face_recognition_sface.yaml ├── facial_expression_recognition.yaml ├── handpose_estimation_mediapipe.yaml ├── human_segmentation_pphumanseg.yaml ├── image_classification_mobilenet.yaml ├── image_classification_ppresnet.yaml ├── license_plate_detection_yunet.yaml ├── object_detection_nanodet.yaml ├── object_detection_yolox.yaml ├── object_tracking_vittrack.yaml ├── palm_detection_mediapipe.yaml ├── person_detection_mediapipe.yaml ├── person_reid_youtureid.yaml ├── pose_estimation_mediapipe.yaml ├── qrcode_wechatqrcode.yaml ├── text_detection_ppocr.yaml ├── text_recognition_crnn.yaml ├── data ├── .gitignore ├── download_data.py ├── generate_table.py ├── requirements.txt ├── table_config.yaml ├── utils ├── __init__.py ├── dataloaders ├── __init__.py ├── base.py ├── base_dataloader.py ├── classification.py ├── recognition.py ├── tracking.py ├── factory.py ├── metrics ├── __init__.py ├── base.py ├── base_metric.py ├── detection.py ├── recognition.py ├── tracking.py ├── timer.py ├── models ├── __init__.py ├── edge_detection_dexined ├── CMakeLists.txt ├── LICENSE ├── demo.cpp ├── demo.py ├── dexined.py ├── edge_detection_dexined_2024sep.onnx ├── example_outputs ├── chicky.jpg ├── chicky_output.jpg ├── face_detection_yunet ├── CMakeLists.txt ├── LICENSE ├── demo.cpp ├── demo.py ├── example_outputs ├── largest_selfie.jpg ├── yunet_demo.gif ├── face_detection_yunet_2023mar.onnx ├── face_detection_yunet_2023mar_int8.onnx ├── yunet.py ├── face_image_quality_assessment_ediffiqa ├── LICENSE ├── demo.py ├── ediffiqa.py ├── ediffiqa_tiny_jun2024.onnx ├── example_outputs ├── demo.jpg ├── quality_distribution.png ├── face_recognition_sface ├── CMakeLists.txt ├── LICENSE ├── demo.cpp ├── demo.py ├── example_outputs ├── demo.jpg ├── face_recognition_sface_2021dec.onnx ├── face_recognition_sface_2021dec_int8.onnx ├── sface.py ├── facial_expression_recognition ├── CMakeLists.txt ├── demo.cpp ├── demo.py ├── example_outputs ├── selfie.jpg ├── facial_expression_recognition_mobilefacenet_2022july.onnx ├── facial_expression_recognition_mobilefacenet_2022july_int8.onnx ├── facial_fer_model.py ├── handpose_estimation_mediapipe ├── LICENSE ├── demo.py ├── example_outputs ├── gesture_classification.png ├── hand_keypoints.png ├── mphandpose_demo.webp ├── handpose_estimation_mediapipe_2023feb.onnx ├── handpose_estimation_mediapipe_2023feb_int8.onnx ├── mp_handpose.py ├── human_segmentation_pphumanseg ├── CMakeLists.txt ├── LICENSE ├── demo.cpp ├── demo.py ├── example_outputs ├── messi.jpg ├── pphumanseg_demo.gif ├── human_segmentation_pphumanseg_2023mar.onnx ├── human_segmentation_pphumanseg_2023mar_int8.onnx ├── pphumanseg.py ├── image_classification_mobilenet ├── CMakeLists.txt ├── LICENSE ├── demo.cpp ├── demo.py ├── image_classification_mobilenetv1_2022apr.onnx ├── image_classification_mobilenetv1_2022apr_int8.onnx ├── image_classification_mobilenetv2_2022apr.onnx ├── image_classification_mobilenetv2_2022apr_int8.onnx ├── labelsimagenet1k.h ├── mobilenet.py ├── image_classification_ppresnet ├── CMakeLists.txt ├── LICENSE ├── demo.cpp ├── demo.py ├── image_classification_ppresnet50_2022jan.onnx ├── image_classification_ppresnet50_2022jan_int8.onnx ├── ppresnet.py ├── image_segmentation_efficientsam ├── LICENSE ├── demo.py ├── efficientSAM.py ├── example_outputs ├── example1.png ├── example2.png ├── sam_present.gif ├── image_segmentation_efficientsam_ti_2024may.onnx ├── license_plate_detection_yunet ├── LICENSE ├── demo.py ├── example_outputs ├── lpd_yunet_demo.gif ├── result-1.jpg ├── result-2.jpg ├── result-3.jpg ├── result-4.jpg ├── license_plate_detection_lpd_yunet_2023mar.onnx ├── license_plate_detection_lpd_yunet_2023mar_int8.onnx ├── lpd_yunet.py ├── object_detection_nanodet ├── CMakeLists.txt ├── LICENSE ├── demo.cpp ├── demo.py ├── example_outputs ├── 1_res.jpg ├── 2_res.jpg ├── 3_res.jpg ├── WebCamR.gif ├── nanodet.py ├── object_detection_nanodet_2022nov.onnx ├── object_detection_nanodet_2022nov_int8.onnx ├── object_detection_yolox ├── CMakeLists.txt ├── LICENSE ├── demo.cpp ├── demo.py ├── example_outputs ├── 1_res.jpg ├── 2_res.jpg ├── 3_res.jpg ├── object_detection_yolox_2022nov.onnx ├── object_detection_yolox_2022nov_int8.onnx ├── yolox.py ├── object_tracking_vittrack ├── CMakeLists.txt ├── LICENSE ├── demo.cpp ├── demo.py ├── example_outputs ├── vittrack_demo.gif ├── object_tracking_vittrack_2023sep.onnx ├── vittrack.py ├── optical_flow_estimation_raft ├── BSD-3-LICENSE.txt ├── MITLICENSE.txt ├── demo.py ├── example_outputs ├── result.jpg ├── vis.png ├── optical_flow_estimation_raft_2023aug.onnx ├── raft.py ├── palm_detection_mediapipe ├── LICENSE ├── demo.py ├── example_outputs ├── mppalmdet_demo.gif ├── mp_palmdet.py ├── palm_detection_mediapipe_2023feb.onnx ├── palm_detection_mediapipe_2023feb_int8.onnx ├── person_detection_mediapipe ├── CMakeLists.txt ├── LICENSE ├── demo.cpp ├── demo.py ├── example_outputs ├── mppersondet_demo.webp ├── mp_persondet.py ├── person_detection_mediapipe_2023mar.onnx ├── person_reid_youtureid ├── LICENSE ├── demo.py ├── person_reid_youtu_2021nov.onnx ├── person_reid_youtu_2021nov_int8.onnx ├── youtureid.py ├── pose_estimation_mediapipe ├── CMakeLists.txt ├── LICENSE ├── demo.cpp ├── demo.py ├── example_outputs ├── mpposeest_demo.webp ├── pose_landmarks.png ├── mp_pose.py ├── pose_estimation_mediapipe_2023mar.onnx ├── qrcode_wechatqrcode ├── LICENSE ├── demo.py ├── detect_2021nov.caffemodel ├── detect_2021nov.prototxt ├── example_outputs ├── wechat_qrcode_demo.gif ├── sr_2021nov.caffemodel ├── sr_2021nov.prototxt ├── wechatqrcode.py ├── text_detection_ppocr ├── CMakeLists.txt ├── LICENSE ├── demo.cpp ├── demo.py ├── example_outputs ├── gsoc.jpg ├── mask.jpg ├── ppocr_det.py ├── text_detection_cn_ppocrv3_2023may.onnx ├── text_detection_cn_ppocrv3_2023may_int8.onnx ├── text_detection_en_ppocrv3_2023may.onnx ├── text_detection_en_ppocrv3_2023may_int8.onnx ├── text_recognition_crnn ├── CMakeLists.txt ├── LICENSE ├── charset_32_94_3944.h ├── crnn.py ├── demo.cpp ├── demo.py ├── example_outputs ├── CRNNCTC.gif ├── demo.jpg ├── text_recognition_CRNN_CH_2021sep.onnx ├── text_recognition_CRNN_CH_2022oct_int8.onnx ├── text_recognition_CRNN_CH_2023feb_fp16.onnx ├── text_recognition_CRNN_CN_2021nov.onnx ├── text_recognition_CRNN_CN_2021nov_int8.onnx ├── text_recognition_CRNN_EN_2021sep.onnx ├── text_recognition_CRNN_EN_2022oct_int8.onnx ├── text_recognition_CRNN_EN_2023feb_fp16.onnx ├── readme.txt ├── reports ├── 2023-4.9.0 ├── assets ├── benchmark_table_4.9.0.png ├── opencv_zoo_report-cn-2023-4.9.0.md ├── opencv_zoo_report-en-2023-4.9.0.md ├── tools ├── eval ├── datasets ├── __init__.py ├── icdar.py ├── iiit5k.py ├── imagenet.py ├── lfw.py ├── lfw_face_bboxes.npy ├── minisupervisely.py ├── widerface.py ├── eval.py ├── quantize ├── block_quantize.py ├── inc_configs ├── fer.yaml ├── lpd_yunet.yaml ├── mobilenet.yaml ├── mp_handpose.yaml ├── quantize-inc.py ├── quantize-ort.py ├── requirements.txt ├── transform.py