特徴検出と記述子抽出の違い

computer-vision feature-detection feature-extraction image-processing opencv
特徴検出と記述子抽出の違い

OpenCV 2.3のFeatureDetectionとDescriptorExtractionの違いを知っている人はいますか? DescriptorMatcherを使用したマッチングには後者が必要であることを理解しています。 その場合、FeatureDetectionは何に使用されますか?

ありがとうございました。

  40  28


ベストアンサー

機能検出

  • コンピュータービジョンと画像処理では、機能の概念
    検出とは、画像情報の抽象化を計算し、特定のタイプの画像特徴がそのポイントにあるかどうかにかかわらず、すべての画像ポイントでローカル決定を行うことを目的とする方法を指します。 結果の特徴は、多くの場合、孤立点、連続曲線、または連結領域の形で、画像ドメインのサブセットになります。 + 特徴検出=画像内のいくつかの興味深い点(特徴)を見つける方法(例:コーナーを見つける、テンプレートを見つけるなど)

特徴抽出

  • パターン認識および画像処理では、特徴抽出は
    特別な形式の次元削減。 アルゴリズムへの入力データが大きすぎて処理できないため、冗長であることが有名な場合(多くのデータ、ただし情報量は少ない)、入力データは特徴の縮小表現セット(特徴ベクトルとも呼ばれます)に変換されます。 入力データを特徴のセットに変換することを特徴抽出と呼びます。 抽出された機能が慎重に選択された場合、フルサイズの入力ではなくこの縮小表現を使用して目的のタスクを実行するために、機能セットが入力データから関連情報を抽出することが期待されます。 + 特徴抽出=画像内の他の興味深い点(特徴)と比較するために見つけた興味深い点をどのように表現するか。 (例、このポイントのローカルエリアの強度? ポイントの周りの領域のローカルな方向? 等々…​)

実用例:ハリスコーナーメソッドでコーナーを見つけることができますが、任意の方法(ヒストグラム、HOG、8番目の隣接のローカル方向など)で説明できます

ここでいくつかの詳細情報を見ることができます、http://en.wikipedia.org/wiki/Feature_detection_%28computer_vision%29 [Wikipedia link]

ジュリアン(ウィキペディアで支援:p)

90


「特徴検出」と「特徴記述子抽出」の両方は、「特徴ベースの画像登録」の一部です。 特徴ベースの画像登録プロセス全体のコンテキストでそれらを見て、彼らの仕事が何であるかを理解することは意味をなします。

機能ベースの登録アルゴリズム

PCL documentationからの次の図は、そのような登録パイプラインを示しています。

PCLペア登録

  1. *データ収集:*入力画像と参照画像が入力されます
    アルゴリズム。 画像は、わずかに異なる視点から同じシーンを表示する必要があります。

  2. *キーポイント推定(機能検出):*キーポイント
    (https://en.wikipedia.org/wiki/Interest_point_detection[interest point])は、次の特性を持つ点群内の点です。

  3. 明確で、できれば数学的に根拠のある定義があり、

  4. 画像空間で明確に定義された位置を持ち、

  5. 関心点の周りのローカル画像構造は、用語が豊富です
    ローカル情報コンテンツの。 + * OpenCV *には、次のような「機能検出」の実装がいくつか含まれています。

    • AKAZE

    • BRISK

    • ORB

    • KAZE

    • SURF

    • SIFT

    • MSER

    • FAST

    • STAR

    • MSD
      +画像内のこのような顕著な点は、それらの合計が画像を特徴づけ、画像のさまざまな部分を識別可能にするのに役立つため、非常に便利です。

  6. 機能記述子(記述子抽出):*検出後
    キーポイントは、それらすべての記述子を計算します。 「ローカル記述子は、ポイントのローカル近傍のコンパクトな表現です。 完全なオブジェクトまたはポイントクラウドを記述するグローバル記述子とは対照的に、ローカル記述子は、ポイント周辺のローカルな近傍でのみ形状と外観に似ようとするため、マッチングの観点でそれを表すのに非常に適しています。」http://lgg.epfl .ch /〜ichim / registration_tutorial_ram_2015 / data / registration_paper_tutorial_ram_2015.pdf [(Dirk Holz et al。)]。 * OpenCVオプション

  7. 通信推定(ディスクリプタマッチャー):*次のタスクは
    両方の画像で見つかったキーポイント間の対応を見つけます。したがって、抽出された特徴は、効率的に検索できる構造(https://en.wikipedia.org/wiki/K-d_tree[kd-tree]など)に配置されます。 通常、すべてのローカルフィーチャディスクリプタを検索し、それぞれを他の画像の対応する対応するものと一致させるだけで十分です。 ただし、1つのクラウドが他のクラウドよりも多くのデータを保持できるため、同様のシーンの2つの画像が必ずしも同じ数の特徴記述子を持っているわけではないため、個別の通信拒否プロセスを実行する必要があります。 * OpenCVオプション

  8. *対応拒否:*への最も一般的なアプローチの1つ
    通信拒否を実行するには、https://en.wikipedia.org/wiki/RANSAC [RANSAC](ランダムサンプルコンセンサス)を使用します。

  9. 変換の推定:
    2つの画像が計算され、「絶対方向アルゴリズム」を使用して、参照画像と一致するように入力画像に適用される変換行列が計算されます。 これを行うためのアルゴリズムにはさまざまなアプローチがありますが、一般的なアプローチはhttps://en.wikipedia.org/wiki/Singular_value_decomposition[Singular Value Decomposition](SVD)です。

22


タイトルとURLをコピーしました