YOLOv8运行参数解读

发布时间 2023-11-07 09:58:02作者: hotzhml
  • 从YAML中构建一个新模型,并从头开始训练

yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640# 从预先训练的*.pt模型开始训练
yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640# 从YAML中构建一个新的模型,将预训练的权重传递给它,并开始训练
yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640
from ultralytics import YOLO# Load a model
model = YOLO('yolov8n.yaml')  # 从YAML中构建一个新模型
model = YOLO('yolov8n.pt')  #加载预训练的模型(推荐用于训练)
model = YOLO('yolov8n.yaml').load('yolov8n.pt')  # 从YAML构建并传递权重# Train the model
model.train(data='coco128.yaml', epochs=100, imgsz=640)
model    传入的model.yaml文件或者model.pt文件,用于构建网络和初始化,不同点在于只传入yaml文件的话参数会随机初始化
data    训练数据集的配置yaml文件
epochs    训练轮次,默认100
patience    早停训练观察的轮次,默认50,如果50轮没有精度提升,模型会直接停止训练
batch    训练批次,默认16
imgsz    训练图片大小,默认640
save    保存训练过程和训练权重,默认开启
save_period    训练过程中每x个轮次保存一次训练模型,默认-1(不开启)
cache    是否采用ram进行数据载入,设置True会加快训练速度,但是这个参数非常吃内存,一般服务器才会设置
device    要运行的设备,即cuda device =0或Device =0,1,2,3或device = cpu
workers    载入数据的线程数。windows一般为4,服务器可以大点,windows上这个参数可能会导致线程报错,发现有关线程报错,可以尝试减少这个参数,这个参数默认为8,大部分都是需要减少的
project    项目文件夹的名,默认为runs
name    用于保存训练文件夹名,默认exp,依次累加
exist_ok    是否覆盖现有保存文件夹,默认Flase
pretrained    是否加载预训练权重,默认Flase
optimizer    优化器选择,默认SGD,可选[SGD、Adam、AdamW、RMSProP]
verbose    是否打印详细输出
seed    随机种子,用于复现模型,默认0
deterministic    设置为True,保证实验的可复现性
single_cls    将多类数据训练为单类,把所有数据当作单类训练,默认Flase
image_weights    使用加权图像选择进行训练,默认Flase
rect    使用矩形训练,和矩形推理同理,默认False
cos_lr    使用余弦学习率调度,默认Flase
close_mosaic    最后x个轮次禁用马赛克增强,默认10
resume    断点训练,默认Flase
lr0    初始化学习率,默认0.01
lrf    最终学习率,默认0.01
label_smoothing    标签平滑参数,默认0.0
dropout    使用dropout正则化(仅对训练进行分类),默认0.0
  • 模型导出

    from ultralytics import YOLO# Load a model
    model = YOLO('yolov8n.pt')  # load an official model
    model = YOLO('path/to/best.pt')  # load a custom trained# Export the model
    model.export(format='onnx')
    format    导出的格式,默认’torchscript’,可选如上支持的格式 onnx、engine、openvino等
    imgsz    导出时固定的图片推理大小,为标量或(h, w)列表,即(640,480) ,默认640
    keras    使用Keras导出TF SavedModel ,用于部署tensorflow模型,默认False
    optimize    是否针对移动端对TorchScript进行优化
    half    fp16量化导出,默认False
    int8    int8量化导出,默认False
    dynamic    针对ONNX/TF/TensorRT:动态推理,默认False
    simplify    onnx simplify简化,默认False
    opset    onnx的Opset版本(可选,默认为最新)
    workspace    TensorRT:工作空间大小(GB),默认4
    nms    导出CoreML,添加NMS