it-swarm-ja.com

Swiftで使用するOpenCVを学ぶための最良のアプローチは?

XCodeのSwiftでOpenCVを使用する方法を理解しようとしています。作業中のプロジェクトでリアルタイムのビデオ処理を行う必要がありますが、Xcode内でOpenCVを学習するための適切なリファレンスが見つからないようです。私が理解している限り、Xcodeのネイティブビデオ処理はそれほど強力ではありません。

私が直面している主な問題は、すべてのSwift/OpenCVチュートリアルが、OpenCVの動作を説明するのではなく、単にプログラムをブリッジングによって連携させることに焦点を当てているように見えることです。これは、SwiftでOpenCVを利用するために、最初に別の言語でOpenCVを学ぶ必要があることを意味しますか?

1

これは、SwiftでOpenCVを利用するために、最初に別の言語でOpenCVを学ぶ必要があることを意味しますか?

はい、OpenCVの値はC++やプログラミング言語とはあまり関係がなく、その値は提供される数学ツールにあるため、ネイティブC++のコンテキストで学習する必要があります。

OpenCVの中心は、数学関数のツールキットです。変換、色変換、エッジ検出アルゴリズムなどはすべて、コンピュータービジョンアプリケーションの問題の解決を支援する数学的アルゴリズムです。

それが、あなたが見つけているチュートリアルがコンポーネントを接続しているだけの理由です。あなたはOpenCVが提供している数学をすでに理解していると想定されています。 C++ vs Swift画像のエッジの検出、色空間の変換などは実際には何もありません。Swiftに固有のことは、ビルドシステムを取得することだけです。すべての画像部分はOpenCVドキュメントでカバーされています。

OpenCVもC++に固有のものではなく、C++が優れた最小公分母言語として選択されました。ただし、ある時点で、OpenCVがどのように実装されたかの実際的な性質を理解し、そのデータ構造を理解する必要があります。これらはすべてC++の趣味を持っています。

OpenCVプロジェクトを開発するための最も一般的なワークフローでは、通常、C++でアルゴリズムを作成、テスト、微調整し、必要な手順である場合は「最後の最後」に最終言語に移植します。

2
whatsisname