Shortcuts

新增评测指标

使用 MMSegmentation 的源代码进行开发

在这里,我们用 CustomMetric 作为例子来展示如何开发一个新的评测指标。

  1. 创建一个新文件 mmseg/evaluation/metrics/custom_metric.py

    from typing import List, Sequence
    
    from mmengine.evaluator import BaseMetric
    
    from mmseg.registry import METRICS
    
    
    @METRICS.register_module()
    class CustomMetric(BaseMetric):
    
        def __init__(self, arg1, arg2):
            """
            The metric first processes each batch of data_samples and predictions,
            and appends the processed results to the results list. Then it
            collects all results together from all ranks if distributed training
            is used. Finally, it computes the metrics of the entire dataset.
            """
    
        def process(self, data_batch: dict, data_samples: Sequence[dict]) -> None:
            pass
    
        def compute_metrics(self, results: list) -> dict:
            pass
    
        def evaluate(self, size: int) -> dict:
            pass
    

    在上面的示例中,CustomMetricBaseMetric 的子类。它有三个方法:processcompute_metricsevaluate

    • process() 处理一批数据样本和预测。处理后的结果需要显示地传给 self.results ,将在处理所有数据样本后用于计算指标。更多细节请参考 MMEngine 文档

    • compute_metrics() 用于从处理后的结果中计算指标。

    • evaluate() 是一个接口,用于计算指标并返回结果。它将由 ValLoopTestLoopRunner 中调用。在大多数情况下,您不需要重写此方法,但如果您想做一些额外的工作,可以重写它。

    注意: 您可以在这里 找到 Runner 调用 evaluate() 方法的过程。Runner 是训练和测试过程的执行器,您可以在训练引擎文档中找到有关它的详细信息。

  2. mmseg/evaluation/metrics/__init__.py 中导入新的指标。

    from .custom_metric import CustomMetric
    __all__ = ['CustomMetric', ...]
    
  3. 在配置文件中设置新的评测指标

    val_evaluator = dict(type='CustomMetric', arg1=xxx, arg2=xxx)
    test_evaluator = dict(type='CustomMetric', arg1=xxx, arg2=xxx)
    

使用发布版本的 MMSegmentation 进行开发

上面的示例展示了如何使用 MMSegmentation 的源代码开发新指标。如果您想使用 MMSegmentation 的发布版本开发新指标,可以按照以下步骤操作。

  1. 创建一个新文件 /Path/to/metrics/custom_metric.py,实现 processcompute_metricsevaluate 方法,evaluate 方法是可选的。

  2. 在代码或配置文件中导入新的指标。

    from path.to.metrics import CustomMetric
    

    或者

    custom_imports = dict(imports=['/Path/to/metrics'], allow_failed_imports=False)
    
    val_evaluator = dict(type='CustomMetric', arg1=xxx, arg2=xxx)
    test_evaluator = dict(type='CustomMetric', arg1=xxx, arg2=xxx)