私的AI研究会 > ModelZoo
「多くの人々がさまざまなタスクのために機械学習モデルを訓練した結果の学習(Pretraining)済の機械学習モデルの集合を「Model Zoo」と呼ぶ。
DEVICE | FP32 | FP16 |
CPU | 〇 | × |
GPU | 〇 | 〇 |
MYRIAD(NCS2) | × | 〇 |
いくつかの検出モデルを使用して、顔、人、車両など、最も人気のあるオブジェクトのセットを検出できます。ほとんどのネットワークは SSD ベースであり、妥当な精度/パフォーマンスのトレードオフを提供します。同じ種類のオブジェクト (など) を検出するネットワークは、パフォーマンスが低下するコストで、より高い精度と適用性を選択できるため、同じタイプのオブジェクトをより適切に検出できる「大きい」ネットワークが期待できます。(機械翻訳)
オブジェクト認識モデルは、分類、回帰、および文字認識に使用されます。これらのネットワークは、それぞれの検出検出後に使用します (例えば、顔検出後の年齢/性別認識)。(機械翻訳)
MODEL NAME | COMPLEXITY (GFLOPS) | SIZE (MP) |
age-gender-recognition-retail-0013 | 0.094 | 2.138 |
head-pose-estimation-adas-0001 | 0.105 | 1.911 |
license-plate-recognition-barrier-0001 | 0.328 | 1.218 |
vehicle-attributes-recognition-barrier-0039 | 0.126 | 0.626 |
vehicle-attributes-recognition-barrier-0042 | 0.462 | 11.177 |
emotions-recognition-retail-0003 | 0.126 | 2.483 |
landmarks-regression-retail-0009 | 0.021 | 0.191 |
facial-landmarks-35-adas-0002 | 0.042 | 4.595 |
person-attributes-recognition-crossroad-0230 | 0.174 | 0.735 |
person-attributes-recognition-crossroad-0234 | 2.167 | 23.510 |
person-attributes-recognition-crossroad-0238 | 1.034 | 21.797 |
gaze-estimation-adas-0002 | 0.139 | 1.882 |
ビデオ内のオブジェクトの正確な追跡は、コンピュータビジョンの一般的なアプリケーションです(例えば、人数を数える)。「オブジェクトの比較的長い不在」と表現できる一連のイベントによって複雑になることがよくあります。たとえば、オクルージョンやフレーム外の動きが原因で発生する可能性があります。このような場合、画像内の現在の位置や最後の既知の位置から経過した時間に関係なく、オブジェクトを「前に見た」と認識することをおしいます。
このようなシナリオでは、次のネットワークを使用できます。彼らは人のイメージを取り、埋め込みを評価する - この人の外観を表す高次元空間のベクトル。このベクトルは、さらなる評価に使用することができます:同じ人に対応する画像は、L2メトリック(ユークリッド距離)によって「近い」埋め込みベクトルを持つことになります。
パフォーマンスと精度の間にさまざまなトレードオフを提供するモデルが複数存在します(より大きなモデルの方がパフォーマンスが向上すると予想されます)。(機械翻訳)
MODEL NAME | COMPLEXITY (GFLOPS) | SIZE (MP) | RANK-1 ON MARKET-1501 |
person-reidentification-retail-0288 | 0.174 | 0.183 | 86.1% |
person-reidentification-retail-0287 | 0.564 | 0.595 | 92.9% |
person-reidentification-retail-0286 | 1.170 | 1.234 | 94.8% |
person-reidentification-retail-0277 | 1.993 | 2.103 | 96.2% |
意味的なセグメンテーションは、オブジェクト検出の問題の拡張です。セマンティック セグメンテーション モデルは、バウンディング ボックスを返す代わりに、入力イメージの "描画" バージョンを返します。これらのネットワークは、それぞれのオブジェクト検出ネットワークよりもはるかに大きいですが、オブジェクトのより良い(ピクセルレベル)の局在化を提供し、複雑な形状の領域(道路上の空きスペースなど)を検出することができます。(機械翻訳)
MODEL NAME | COMPLEXITY (GFLOPS) | SIZE (MP) |
road-segmentation-adas-0001 | 4.770 | 0.184 |
semantic-segmentation-adas-0001 | 58.572 | 6.686 |
unet-camvid-onnx-0001 | 260.1 | 31.03 |
icnet-camvid-ava-0001 | 151.82 | 25.45 |
icnet-camvid-ava-sparse-30-0001 | 151.82 | 25.45 |
icnet-camvid-ava-sparse-60-0001 | 151.82 | 25.45 |
インスタンスセグメンテーションは、オブジェクト検出とセマンティックセグメンテーションの問題の拡張です。各オブジェクト インスタンス インスタンスセグメンテーション モデルの周囲に境界ボックスを予測するのではなく、すべてのインスタンスのピクセル単位のマスクを出力します。(機械翻訳)
MODEL NAME | COMPLEXITY (GFLOPS) | SIZE (MP) |
instance-segmentation-security-1025 | 30.146 | 26.69 |
instance-segmentation-security-0050 | 46.602 | 30.448 |
instance-segmentation-security-0083 | 365.626 | 143.444 |
instance-segmentation-security-0010 | 899.568 | 174.568 |
人間のポーズ推定タスクは、入力画像またはビデオ内のすべての人に対して、キーポイントとそれらの間の接続で構成されるボディスケルトンを予測することです。要点は、耳、目、鼻、肩、膝など、身体関節です。このような方法には、トップダウンとボトムアップの 2 つの主要なグループがあります。最初のフレーム内の人物を検出し、作物または再スケール検出を検出し、次に検出ごとにポーズ推定ネットワークを実行します。これらの方法は非常に正確です。2 つ目は、特定のフレーム内のすべてのキーポイントを検索し、ネットワークが 1 回実行されるため、以前よりも速く、それらを人インスタンスごとにグループ化します。(機械翻訳)
MODEL NAME | COMPLEXITY (GFLOPS) | SIZE (MP) |
human-pose-estimation-0001 | 15.435 | 4.099 |
human-pose-estimation-0002 | 5.9393 | 8.1504 |
human-pose-estimation-0003 | 8.8720 | 8.1504 |
human-pose-estimation-0004 | 14.3707 | 8.1504 |
ディープラーニングモデルは、出力の品質を向上させるために、さまざまな画像処理タスクでアプリケーションを見つけます。(機械翻訳)
MODEL NAME | COMPLEXITY (GFLOPS) | SIZE (MP) |
single-image-super-resolution-1032 | 11.654 | 0.030 |
single-image-super-resolution-1033 | 16.062 | 0.030 |
text-image-super-resolution-0001 | 1.379 | 0.003 |
さまざまなアプリケーションでのテキスト検出のためのディープラーニングモデル。
MODEL NAME | COMPLEXITY (GFLOPS) | SIZE (MP) |
text-detection-0003 | 51.256 | 6.747 |
text-detection-0004 | 23.305 | 4.328 |
horizontal-text-detection-0001 | 7.718 | 2.259 |
さまざまなアプリケーションでのテキスト認識のためのディープラーニングモデル。
MODEL NAME | COMPLEXITY (GFLOPS) | SIZE (MP) |
text-recognition-0012 | 1.485 | 5.568 |
handwritten-score-recognition-0003 | 0.792 | 5.555 |
handwritten-japanese-recognition-0001 | 117.136 | 15.31 |
handwritten-simplified-chinese-recognition-0001 | 134.513 | 17.270 |
formula-recognition-medium-scan-0001: | ||
encode | 16.56 | 1.69 |
decoder | 1.86 | 2.56 |
formula-recognition-polynomials-handwritten-0001: | ||
encoder | 12.8447 | 8.6838 |
decoder | 0.2017 | 2.5449 |
テキストスポッティング(同時検出と認識)のためのディープラーニングモデル。
MODEL NAME | COMPLEXITY (GFLOPS) | SIZE (MP) |
text-spotting-0003 | ||
text-spotting-0003-detector | 184.495 | 27.010 |
text-spotting-0003-recognizer-encoder | 2.082 | 1.328 |
text-spotting-0003-recognizer-decoder | 0.002 | 0.273 |
アクション認識モデルは、短いビデオクリップ(入力ビデオからサンプリングされたフレームを積み重ねて形成されるテンソル)で実行されるアクションを予測します。モデルによっては、個々のクリップ フラグメントから事前計算された高レベル空間または時間的なフィーチャ (埋め込み) を使用して、それらを時系列モデルに集約して、分類スコアを持つベクターを予測するものもあります。埋め込みを計算するモデルはエンコーダーと呼ばれ、実際のラベルを予測するモデルはデコーダと呼ばれます。(機械翻訳)
MODEL NAME | COMPLEXITY (GFLOPS) | SIZE (MP) |
driver-action-recognition-adas-0002 | ||
driver-action-recognition-adas-0002-encoder | 0.676 | 2.863 |
driver-action-recognition-adas-0002-decoder | 0.147 | 4.205 |
action-recognition-0001 | ||
action-recognition-0001-encoder | 7.340 | 21.276 |
action-recognition-0001-decoder | 0.147 | 4.405 |
asl-recognition-0004 | 6.660 | 4.133 |
weld-porosity-detection-0001 | 3.636 | 11.173 |
画像検索用のディープラーニングモデル(いくつかの「プローブ」画像との類似度に従って「ギャラリー」画像をランク付けする)。
MODEL NAME | COMPLEXITY (GFLOPS) | SIZE (MP) |
image-retrieval-0001 | 0.613 | 2.535 |
ディープラーニング圧縮モデル
MODEL NAME | COMPLEXITY (GFLOPS) | SIZE (MP) |
resnet50-binary-0001 | 1.002 | 7.446 |
resnet18-xnor-binary-onnx-0001 | - | - |
MODEL NAME | COMPLEXITY (GFLOPS) | SIZE (MP) |
bert-large-uncased-whole-word-masking-squad-0001 | 246.93 | 333.96 |
bert-large-uncased-whole-word-masking-squad-int8-0001 | 246.93 | 333.96 |
bert-large-uncased-whole-word-masking-squad-emb-0001 | 246.93 (for [1,384] input size) | 333.96 |
bert-small-uncased-whole-word-masking-squad-0001 | 23.9 | 57.94 |
bert-small-uncased-whole-word-masking-squad-0002 | 23.9 | 41.1 |
bert-small-uncased-whole-word-masking-squad-int8-0002 | 23.9 | 41.1 |
bert-small-uncased-whole-word-masking-squad-emb-int8-0001 | 23.9 (for [1,384] input size) | 41.1 |
MODEL NAME | COMPLEXITY (GFLOPS) | SIZE (MP) |
machine-translation-nar-en-ru-0001 | 23.17 | 69.29 |
machine-translation-nar-ru-en-0001 | 23.17 | 69.29 |
$ tree intel intel ├── action-recognition-0001 │ ├── action-recognition-0001-decoder │ │ ├── FP16 │ │ │ ├── action-recognition-0001-decoder.bin │ │ │ └── action-recognition-0001-decoder.xml │ │ ├── FP16-INT8 │ │ │ ├── action-recognition-0001-decoder.bin │ │ │ └── action-recognition-0001-decoder.xml │ │ └── FP32 │ │ ├── action-recognition-0001-decoder.bin │ │ └── action-recognition-0001-decoder.xml │ └── action-recognition-0001-encoder │ ├── FP16 │ │ ├── action-recognition-0001-encoder.bin │ │ └── action-recognition-0001-encoder.xml │ ├── FP16-INT8 │ │ ├── action-recognition-0001-encoder.bin │ │ └── action-recognition-0001-encoder.xml │ └── FP32 │ ├── action-recognition-0001-encoder.bin │ └── action-recognition-0001-encoder.xml ├── age-gender-recognition-retail-0013 │ ├── FP16 │ │ ├── age-gender-recognition-retail-0013.bin │ │ └── age-gender-recognition-retail-0013.xml │ ├── FP16-INT8 │ │ ├── age-gender-recognition-retail-0013.bin │ │ └── age-gender-recognition-retail-0013.xml │ └── FP32 │ ├── age-gender-recognition-retail-0013.bin │ └── age-gender-recognition-retail-0013.xml ├── asl-recognition-0004 │ ├── FP16 │ │ ├── asl-recognition-0004.bin │ │ └── asl-recognition-0004.xml │ └── FP32 │ ├── asl-recognition-0004.bin │ └── asl-recognition-0004.xml ├── bert-large-uncased-whole-word-masking-squad-0001 │ ├── FP16 │ │ ├── bert-large-uncased-whole-word-masking-squad-0001.bin │ │ └── bert-large-uncased-whole-word-masking-squad-0001.xml │ └── FP32 │ ├── bert-large-uncased-whole-word-masking-squad-0001.bin │ └── bert-large-uncased-whole-word-masking-squad-0001.xml ├── bert-large-uncased-whole-word-masking-squad-emb-0001 │ ├── FP16 │ │ ├── bert-large-uncased-whole-word-masking-squad-emb-0001.bin │ │ └── bert-large-uncased-whole-word-masking-squad-emb-0001.xml │ └── FP32 │ ├── bert-large-uncased-whole-word-masking-squad-emb-0001.bin │ └── bert-large-uncased-whole-word-masking-squad-emb-0001.xml ├── bert-large-uncased-whole-word-masking-squad-int8-0001 │ ├── FP16-INT8 │ │ ├── bert-large-uncased-whole-word-masking-squad-int8-0001.bin │ │ └── bert-large-uncased-whole-word-masking-squad-int8-0001.xml │ └── FP32-INT8 │ ├── bert-large-uncased-whole-word-masking-squad-int8-0001.bin │ └── bert-large-uncased-whole-word-masking-squad-int8-0001.xml ├── bert-small-uncased-whole-word-masking-squad-0001 │ ├── FP16 │ │ ├── bert-small-uncased-whole-word-masking-squad-0001.bin │ │ └── bert-small-uncased-whole-word-masking-squad-0001.xml │ └── FP32 │ ├── bert-small-uncased-whole-word-masking-squad-0001.bin │ └── bert-small-uncased-whole-word-masking-squad-0001.xml ├── bert-small-uncased-whole-word-masking-squad-0002 │ ├── FP16 │ │ ├── bert-small-uncased-whole-word-masking-squad-0002.bin │ │ └── bert-small-uncased-whole-word-masking-squad-0002.xml │ └── FP32 │ ├── bert-small-uncased-whole-word-masking-squad-0002.bin │ └── bert-small-uncased-whole-word-masking-squad-0002.xml ├── bert-small-uncased-whole-word-masking-squad-emb-int8-0001 │ ├── FP16-INT8 │ │ ├── bert-small-uncased-whole-word-masking-squad-emb-int8-0001.bin │ │ └── bert-small-uncased-whole-word-masking-squad-emb-int8-0001.xml │ └── FP32-INT8 │ ├── bert-small-uncased-whole-word-masking-squad-emb-int8-0001.bin │ └── bert-small-uncased-whole-word-masking-squad-emb-int8-0001.xml ├── bert-small-uncased-whole-word-masking-squad-int8-0002 │ ├── FP16-INT8 │ │ ├── bert-small-uncased-whole-word-masking-squad-int8-0002.bin │ │ └── bert-small-uncased-whole-word-masking-squad-int8-0002.xml │ └── FP32-INT8 │ ├── bert-small-uncased-whole-word-masking-squad-int8-0002.bin │ └── bert-small-uncased-whole-word-masking-squad-int8-0002.xml ├── driver-action-recognition-adas-0002 │ ├── driver-action-recognition-adas-0002-decoder │ │ ├── FP16 │ │ │ ├── driver-action-recognition-adas-0002-decoder.bin │ │ │ └── driver-action-recognition-adas-0002-decoder.xml │ │ ├── FP16-INT8 │ │ │ ├── driver-action-recognition-adas-0002-decoder.bin │ │ │ └── driver-action-recognition-adas-0002-decoder.xml │ │ └── FP32 │ │ ├── driver-action-recognition-adas-0002-decoder.bin │ │ └── driver-action-recognition-adas-0002-decoder.xml │ └── driver-action-recognition-adas-0002-encoder │ ├── FP16 │ │ ├── driver-action-recognition-adas-0002-encoder.bin │ │ └── driver-action-recognition-adas-0002-encoder.xml │ ├── FP16-INT8 │ │ ├── driver-action-recognition-adas-0002-encoder.bin │ │ └── driver-action-recognition-adas-0002-encoder.xml │ └── FP32 │ ├── driver-action-recognition-adas-0002-encoder.bin │ └── driver-action-recognition-adas-0002-encoder.xml ├── emotions-recognition-retail-0003 │ ├── FP16 │ │ ├── emotions-recognition-retail-0003.bin │ │ └── emotions-recognition-retail-0003.xml │ ├── FP16-INT8 │ │ ├── emotions-recognition-retail-0003.bin │ │ └── emotions-recognition-retail-0003.xml │ └── FP32 │ ├── emotions-recognition-retail-0003.bin │ └── emotions-recognition-retail-0003.xml ├── face-detection-0200 │ ├── FP16 │ │ ├── face-detection-0200.bin │ │ └── face-detection-0200.xml │ ├── FP16-INT8 │ │ ├── face-detection-0200.bin │ │ └── face-detection-0200.xml │ └── FP32 │ ├── face-detection-0200.bin │ └── face-detection-0200.xml ├── face-detection-0202 │ ├── FP16 │ │ ├── face-detection-0202.bin │ │ └── face-detection-0202.xml │ ├── FP16-INT8 │ │ ├── face-detection-0202.bin │ │ └── face-detection-0202.xml │ └── FP32 │ ├── face-detection-0202.bin │ └── face-detection-0202.xml ├── face-detection-0204 │ ├── FP16 │ │ ├── face-detection-0204.bin │ │ └── face-detection-0204.xml │ ├── FP16-INT8 │ │ ├── face-detection-0204.bin │ │ └── face-detection-0204.xml │ └── FP32 │ ├── face-detection-0204.bin │ └── face-detection-0204.xml ├── face-detection-0205 │ ├── FP16 │ │ ├── face-detection-0205.bin │ │ └── face-detection-0205.xml │ ├── FP16-INT8 │ │ ├── face-detection-0205.bin │ │ └── face-detection-0205.xml │ └── FP32 │ ├── face-detection-0205.bin │ └── face-detection-0205.xml ├── face-detection-0206 │ ├── FP16 │ │ ├── face-detection-0206.bin │ │ └── face-detection-0206.xml │ ├── FP16-INT8 │ │ ├── face-detection-0206.bin │ │ └── face-detection-0206.xml │ └── FP32 │ ├── face-detection-0206.bin │ └── face-detection-0206.xml ├── face-detection-adas-0001 │ ├── FP16 │ │ ├── face-detection-adas-0001.bin │ │ └── face-detection-adas-0001.xml │ ├── FP16-INT8 │ │ ├── face-detection-adas-0001.bin │ │ └── face-detection-adas-0001.xml │ └── FP32 │ ├── face-detection-adas-0001.bin │ └── face-detection-adas-0001.xml ├── face-detection-retail-0004 │ ├── FP16 │ │ ├── face-detection-retail-0004.bin │ │ └── face-detection-retail-0004.xml │ ├── FP16-INT8 │ │ ├── face-detection-retail-0004.bin │ │ └── face-detection-retail-0004.xml │ └── FP32 │ ├── face-detection-retail-0004.bin │ └── face-detection-retail-0004.xml ├── face-detection-retail-0005 │ ├── FP16 │ │ ├── face-detection-retail-0005.bin │ │ └── face-detection-retail-0005.xml │ ├── FP16-INT8 │ │ ├── face-detection-retail-0005.bin │ │ └── face-detection-retail-0005.xml │ └── FP32 │ ├── face-detection-retail-0005.bin │ └── face-detection-retail-0005.xml ├── facial-landmarks-35-adas-0002 │ ├── FP16 │ │ ├── facial-landmarks-35-adas-0002.bin │ │ └── facial-landmarks-35-adas-0002.xml │ ├── FP16-INT8 │ │ ├── facial-landmarks-35-adas-0002.bin │ │ └── facial-landmarks-35-adas-0002.xml │ └── FP32 │ ├── facial-landmarks-35-adas-0002.bin │ └── facial-landmarks-35-adas-0002.xml ├── faster-rcnn-resnet101-coco-sparse-60-0001 │ ├── FP16 │ │ ├── faster-rcnn-resnet101-coco-sparse-60-0001.bin │ │ └── faster-rcnn-resnet101-coco-sparse-60-0001.xml │ ├── FP16-INT8 │ │ ├── faster-rcnn-resnet101-coco-sparse-60-0001.bin │ │ └── faster-rcnn-resnet101-coco-sparse-60-0001.xml │ └── FP32 │ ├── faster-rcnn-resnet101-coco-sparse-60-0001.bin │ └── faster-rcnn-resnet101-coco-sparse-60-0001.xml ├── formula-recognition-medium-scan-0001 │ ├── formula-recognition-medium-scan-0001-im2latex-decoder │ │ ├── FP16 │ │ │ ├── formula-recognition-medium-scan-0001-im2latex-decoder.bin │ │ │ └── formula-recognition-medium-scan-0001-im2latex-decoder.xml │ │ └── FP32 │ │ ├── formula-recognition-medium-scan-0001-im2latex-decoder.bin │ │ └── formula-recognition-medium-scan-0001-im2latex-decoder.xml │ └── formula-recognition-medium-scan-0001-im2latex-encoder │ ├── FP16 │ │ ├── formula-recognition-medium-scan-0001-im2latex-encoder.bin │ │ └── formula-recognition-medium-scan-0001-im2latex-encoder.xml │ └── FP32 │ ├── formula-recognition-medium-scan-0001-im2latex-encoder.bin │ └── formula-recognition-medium-scan-0001-im2latex-encoder.xml ├── formula-recognition-polynomials-handwritten-0001 │ ├── formula-recognition-polynomials-handwritten-0001-decoder │ │ ├── FP16 │ │ │ ├── formula-recognition-polynomials-handwritten-0001-decoder.bin │ │ │ └── formula-recognition-polynomials-handwritten-0001-decoder.xml │ │ └── FP32 │ │ ├── formula-recognition-polynomials-handwritten-0001-decoder.bin │ │ └── formula-recognition-polynomials-handwritten-0001-decoder.xml │ └── formula-recognition-polynomials-handwritten-0001-encoder │ ├── FP16 │ │ ├── formula-recognition-polynomials-handwritten-0001-encoder.bin │ │ └── formula-recognition-polynomials-handwritten-0001-encoder.xml │ └── FP32 │ ├── formula-recognition-polynomials-handwritten-0001-encoder.bin │ └── formula-recognition-polynomials-handwritten-0001-encoder.xml ├── gaze-estimation-adas-0002 │ ├── FP16 │ │ ├── gaze-estimation-adas-0002.bin │ │ └── gaze-estimation-adas-0002.xml │ ├── FP16-INT8 │ │ ├── gaze-estimation-adas-0002.bin │ │ └── gaze-estimation-adas-0002.xml │ └── FP32 │ ├── gaze-estimation-adas-0002.bin │ └── gaze-estimation-adas-0002.xml ├── handwritten-japanese-recognition-0001 │ ├── FP16 │ │ ├── handwritten-japanese-recognition-0001.bin │ │ └── handwritten-japanese-recognition-0001.xml │ ├── FP16-INT8 │ │ ├── handwritten-japanese-recognition-0001.bin │ │ └── handwritten-japanese-recognition-0001.xml │ └── FP32 │ ├── handwritten-japanese-recognition-0001.bin │ └── handwritten-japanese-recognition-0001.xml ├── handwritten-score-recognition-0003 │ ├── FP16 │ │ ├── handwritten-score-recognition-0003.bin │ │ └── handwritten-score-recognition-0003.xml │ ├── FP16-INT8 │ │ ├── handwritten-score-recognition-0003.bin │ │ └── handwritten-score-recognition-0003.xml │ └── FP32 │ ├── handwritten-score-recognition-0003.bin │ └── handwritten-score-recognition-0003.xml ├── handwritten-simplified-chinese-recognition-0001 │ ├── FP16 │ │ ├── handwritten-simplified-chinese-recognition-0001.bin │ │ └── handwritten-simplified-chinese-recognition-0001.xml │ ├── FP16-INT8 │ │ ├── handwritten-simplified-chinese-recognition-0001.bin │ │ └── handwritten-simplified-chinese-recognition-0001.xml │ └── FP32 │ ├── handwritten-simplified-chinese-recognition-0001.bin │ └── handwritten-simplified-chinese-recognition-0001.xml ├── head-pose-estimation-adas-0001 │ ├── FP16 │ │ ├── head-pose-estimation-adas-0001.bin │ │ └── head-pose-estimation-adas-0001.xml │ ├── FP16-INT8 │ │ ├── head-pose-estimation-adas-0001.bin │ │ └── head-pose-estimation-adas-0001.xml │ └── FP32 │ ├── head-pose-estimation-adas-0001.bin │ └── head-pose-estimation-adas-0001.xml ├── horizontal-text-detection-0001 │ ├── FP16 │ │ ├── horizontal-text-detection-0001.bin │ │ └── horizontal-text-detection-0001.xml │ ├── FP16-INT8 │ │ ├── horizontal-text-detection-0001.bin │ │ └── horizontal-text-detection-0001.xml │ └── FP32 │ ├── horizontal-text-detection-0001.bin │ └── horizontal-text-detection-0001.xml ├── human-pose-estimation-0001 │ ├── FP16 │ │ ├── human-pose-estimation-0001.bin │ │ └── human-pose-estimation-0001.xml │ ├── FP16-INT8 │ │ ├── human-pose-estimation-0001.bin │ │ └── human-pose-estimation-0001.xml │ └── FP32 │ ├── human-pose-estimation-0001.bin │ └── human-pose-estimation-0001.xml ├── human-pose-estimation-0002 │ ├── FP16 │ │ ├── human-pose-estimation-0002.bin │ │ └── human-pose-estimation-0002.xml │ └── FP32 │ ├── human-pose-estimation-0002.bin │ └── human-pose-estimation-0002.xml ├── human-pose-estimation-0003 │ ├── FP16 │ │ ├── human-pose-estimation-0003.bin │ │ └── human-pose-estimation-0003.xml │ └── FP32 │ ├── human-pose-estimation-0003.bin │ └── human-pose-estimation-0003.xml ├── human-pose-estimation-0004 │ ├── FP16 │ │ ├── human-pose-estimation-0004.bin │ │ └── human-pose-estimation-0004.xml │ └── FP32 │ ├── human-pose-estimation-0004.bin │ └── human-pose-estimation-0004.xml ├── icnet-camvid-ava-0001 │ ├── FP16 │ │ ├── icnet-camvid-ava-0001.bin │ │ └── icnet-camvid-ava-0001.xml │ ├── FP16-INT8 │ │ ├── icnet-camvid-ava-0001.bin │ │ └── icnet-camvid-ava-0001.xml │ └── FP32 │ ├── icnet-camvid-ava-0001.bin │ └── icnet-camvid-ava-0001.xml ├── icnet-camvid-ava-sparse-30-0001 │ ├── FP16 │ │ ├── icnet-camvid-ava-sparse-30-0001.bin │ │ └── icnet-camvid-ava-sparse-30-0001.xml │ ├── FP16-INT8 │ │ ├── icnet-camvid-ava-sparse-30-0001.bin │ │ └── icnet-camvid-ava-sparse-30-0001.xml │ └── FP32 │ ├── icnet-camvid-ava-sparse-30-0001.bin │ └── icnet-camvid-ava-sparse-30-0001.xml ├── icnet-camvid-ava-sparse-60-0001 │ ├── FP16 │ │ ├── icnet-camvid-ava-sparse-60-0001.bin │ │ └── icnet-camvid-ava-sparse-60-0001.xml │ ├── FP16-INT8 │ │ ├── icnet-camvid-ava-sparse-60-0001.bin │ │ └── icnet-camvid-ava-sparse-60-0001.xml │ └── FP32 │ ├── icnet-camvid-ava-sparse-60-0001.bin │ └── icnet-camvid-ava-sparse-60-0001.xml ├── image-retrieval-0001 │ ├── FP16 │ │ ├── image-retrieval-0001.bin │ │ └── image-retrieval-0001.xml │ ├── FP16-INT8 │ │ ├── image-retrieval-0001.bin │ │ └── image-retrieval-0001.xml │ └── FP32 │ ├── image-retrieval-0001.bin │ └── image-retrieval-0001.xml ├── instance-segmentation-security-0010 │ ├── FP16 │ │ ├── instance-segmentation-security-0010.bin │ │ └── instance-segmentation-security-0010.xml │ ├── FP16-INT8 │ │ ├── instance-segmentation-security-0010.bin │ │ └── instance-segmentation-security-0010.xml │ └── FP32 │ ├── instance-segmentation-security-0010.bin │ └── instance-segmentation-security-0010.xml ├── instance-segmentation-security-0050 │ ├── FP16 │ │ ├── instance-segmentation-security-0050.bin │ │ └── instance-segmentation-security-0050.xml │ ├── FP16-INT8 │ │ ├── instance-segmentation-security-0050.bin │ │ └── instance-segmentation-security-0050.xml │ └── FP32 │ ├── instance-segmentation-security-0050.bin │ └── instance-segmentation-security-0050.xml ├── instance-segmentation-security-0083 │ ├── FP16 │ │ ├── instance-segmentation-security-0083.bin │ │ └── instance-segmentation-security-0083.xml │ ├── FP16-INT8 │ │ ├── instance-segmentation-security-0083.bin │ │ └── instance-segmentation-security-0083.xml │ └── FP32 │ ├── instance-segmentation-security-0083.bin │ └── instance-segmentation-security-0083.xml ├── instance-segmentation-security-1025 │ ├── FP16 │ │ ├── instance-segmentation-security-1025.bin │ │ └── instance-segmentation-security-1025.xml │ ├── FP16-INT8 │ │ ├── instance-segmentation-security-1025.bin │ │ └── instance-segmentation-security-1025.xml │ └── FP32 │ ├── instance-segmentation-security-1025.bin │ └── instance-segmentation-security-1025.xml ├── landmarks-regression-retail-0009 │ ├── FP16 │ │ ├── landmarks-regression-retail-0009.bin │ │ └── landmarks-regression-retail-0009.xml │ ├── FP16-INT8 │ │ ├── landmarks-regression-retail-0009.bin │ │ └── landmarks-regression-retail-0009.xml │ └── FP32 │ ├── landmarks-regression-retail-0009.bin │ └── landmarks-regression-retail-0009.xml ├── license-plate-recognition-barrier-0001 │ ├── FP16 │ │ ├── license-plate-recognition-barrier-0001.bin │ │ └── license-plate-recognition-barrier-0001.xml │ ├── FP16-INT8 │ │ ├── license-plate-recognition-barrier-0001.bin │ │ └── license-plate-recognition-barrier-0001.xml │ └── FP32 │ ├── license-plate-recognition-barrier-0001.bin │ └── license-plate-recognition-barrier-0001.xml ├── machine-translation-nar-en-ru-0001 │ ├── FP16 │ │ ├── machine-translation-nar-en-ru-0001.bin │ │ └── machine-translation-nar-en-ru-0001.xml │ └── FP32 │ ├── machine-translation-nar-en-ru-0001.bin │ └── machine-translation-nar-en-ru-0001.xml ├── machine-translation-nar-ru-en-0001 │ ├── FP16 │ │ ├── machine-translation-nar-ru-en-0001.bin │ │ └── machine-translation-nar-ru-en-0001.xml │ └── FP32 │ ├── machine-translation-nar-ru-en-0001.bin │ └── machine-translation-nar-ru-en-0001.xml ├── pedestrian-and-vehicle-detector-adas-0001 │ ├── FP16 │ │ ├── pedestrian-and-vehicle-detector-adas-0001.bin │ │ └── pedestrian-and-vehicle-detector-adas-0001.xml │ ├── FP16-INT8 │ │ ├── pedestrian-and-vehicle-detector-adas-0001.bin │ │ └── pedestrian-and-vehicle-detector-adas-0001.xml │ └── FP32 │ ├── pedestrian-and-vehicle-detector-adas-0001.bin │ └── pedestrian-and-vehicle-detector-adas-0001.xml ├── pedestrian-detection-adas-0002 │ ├── FP16 │ │ ├── pedestrian-detection-adas-0002.bin │ │ └── pedestrian-detection-adas-0002.xml │ ├── FP16-INT8 │ │ ├── pedestrian-detection-adas-0002.bin │ │ └── pedestrian-detection-adas-0002.xml │ └── FP32 │ ├── pedestrian-detection-adas-0002.bin │ └── pedestrian-detection-adas-0002.xml ├── person-attributes-recognition-crossroad-0230 │ ├── FP16 │ │ ├── person-attributes-recognition-crossroad-0230.bin │ │ └── person-attributes-recognition-crossroad-0230.xml │ ├── FP16-INT8 │ │ ├── person-attributes-recognition-crossroad-0230.bin │ │ └── person-attributes-recognition-crossroad-0230.xml │ └── FP32 │ ├── person-attributes-recognition-crossroad-0230.bin │ └── person-attributes-recognition-crossroad-0230.xml ├── person-attributes-recognition-crossroad-0234 │ ├── FP16 │ │ ├── person-attributes-recognition-crossroad-0234.bin │ │ └── person-attributes-recognition-crossroad-0234.xml │ ├── FP16-INT8 │ │ ├── person-attributes-recognition-crossroad-0234.bin │ │ └── person-attributes-recognition-crossroad-0234.xml │ └── FP32 │ ├── person-attributes-recognition-crossroad-0234.bin │ └── person-attributes-recognition-crossroad-0234.xml ├── person-attributes-recognition-crossroad-0238 │ ├── FP16 │ │ ├── person-attributes-recognition-crossroad-0238.bin │ │ └── person-attributes-recognition-crossroad-0238.xml │ ├── FP16-INT8 │ │ ├── person-attributes-recognition-crossroad-0238.bin │ │ └── person-attributes-recognition-crossroad-0238.xml │ └── FP32 │ ├── person-attributes-recognition-crossroad-0238.bin │ └── person-attributes-recognition-crossroad-0238.xml ├── person-detection-0106 │ ├── FP16 │ │ ├── person-detection-0106.bin │ │ └── person-detection-0106.xml │ ├── FP16-INT8 │ │ ├── person-detection-0106.bin │ │ └── person-detection-0106.xml │ └── FP32 │ ├── person-detection-0106.bin │ └── person-detection-0106.xml ├── person-detection-0200 │ ├── FP16 │ │ ├── person-detection-0200.bin │ │ └── person-detection-0200.xml │ ├── FP16-INT8 │ │ ├── person-detection-0200.bin │ │ └── person-detection-0200.xml │ └── FP32 │ ├── person-detection-0200.bin │ └── person-detection-0200.xml ├── person-detection-0201 │ ├── FP16 │ │ ├── person-detection-0201.bin │ │ └── person-detection-0201.xml │ ├── FP16-INT8 │ │ ├── person-detection-0201.bin │ │ └── person-detection-0201.xml │ └── FP32 │ ├── person-detection-0201.bin │ └── person-detection-0201.xml ├── person-detection-0202 │ ├── FP16 │ │ ├── person-detection-0202.bin │ │ └── person-detection-0202.xml │ ├── FP16-INT8 │ │ ├── person-detection-0202.bin │ │ └── person-detection-0202.xml │ └── FP32 │ ├── person-detection-0202.bin │ └── person-detection-0202.xml ├── person-detection-0203 │ ├── FP16 │ │ ├── person-detection-0203.bin │ │ └── person-detection-0203.xml │ └── FP32 │ ├── person-detection-0203.bin │ └── person-detection-0203.xml ├── person-detection-action-recognition-0005 │ ├── FP16 │ │ ├── person-detection-action-recognition-0005.bin │ │ └── person-detection-action-recognition-0005.xml │ ├── FP16-INT8 │ │ ├── person-detection-action-recognition-0005.bin │ │ └── person-detection-action-recognition-0005.xml │ └── FP32 │ ├── person-detection-action-recognition-0005.bin │ └── person-detection-action-recognition-0005.xml ├── person-detection-action-recognition-0006 │ ├── FP16 │ │ ├── person-detection-action-recognition-0006.bin │ │ └── person-detection-action-recognition-0006.xml │ ├── FP16-INT8 │ │ ├── person-detection-action-recognition-0006.bin │ │ └── person-detection-action-recognition-0006.xml │ └── FP32 │ ├── person-detection-action-recognition-0006.bin │ └── person-detection-action-recognition-0006.xml ├── person-detection-action-recognition-teacher-0002 │ ├── FP16 │ │ ├── person-detection-action-recognition-teacher-0002.bin │ │ └── person-detection-action-recognition-teacher-0002.xml │ ├── FP16-INT8 │ │ ├── person-detection-action-recognition-teacher-0002.bin │ │ └── person-detection-action-recognition-teacher-0002.xml │ └── FP32 │ ├── person-detection-action-recognition-teacher-0002.bin │ └── person-detection-action-recognition-teacher-0002.xml ├── person-detection-asl-0001 │ ├── FP16 │ │ ├── person-detection-asl-0001.bin │ │ └── person-detection-asl-0001.xml │ ├── FP16-INT8 │ │ ├── person-detection-asl-0001.bin │ │ └── person-detection-asl-0001.xml │ └── FP32 │ ├── person-detection-asl-0001.bin │ └── person-detection-asl-0001.xml ├── person-detection-raisinghand-recognition-0001 │ ├── FP16 │ │ ├── person-detection-raisinghand-recognition-0001.bin │ │ └── person-detection-raisinghand-recognition-0001.xml │ ├── FP16-INT8 │ │ ├── person-detection-raisinghand-recognition-0001.bin │ │ └── person-detection-raisinghand-recognition-0001.xml │ └── FP32 │ ├── person-detection-raisinghand-recognition-0001.bin │ └── person-detection-raisinghand-recognition-0001.xml ├── person-detection-retail-0002 │ ├── FP16 │ │ ├── person-detection-retail-0002.bin │ │ └── person-detection-retail-0002.xml │ ├── FP16-INT8 │ │ ├── person-detection-retail-0002.bin │ │ └── person-detection-retail-0002.xml │ └── FP32 │ ├── person-detection-retail-0002.bin │ └── person-detection-retail-0002.xml ├── person-detection-retail-0013 │ ├── FP16 │ │ ├── person-detection-retail-0013.bin │ │ └── person-detection-retail-0013.xml │ ├── FP16-INT8 │ │ ├── person-detection-retail-0013.bin │ │ └── person-detection-retail-0013.xml │ └── FP32 │ ├── person-detection-retail-0013.bin │ └── person-detection-retail-0013.xml ├── person-reidentification-retail-0277 │ ├── FP16 │ │ ├── person-reidentification-retail-0277.bin │ │ └── person-reidentification-retail-0277.xml │ ├── FP16-INT8 │ │ ├── person-reidentification-retail-0277.bin │ │ └── person-reidentification-retail-0277.xml │ └── FP32 │ ├── person-reidentification-retail-0277.bin │ └── person-reidentification-retail-0277.xml ├── person-reidentification-retail-0286 │ ├── FP16 │ │ ├── person-reidentification-retail-0286.bin │ │ └── person-reidentification-retail-0286.xml │ ├── FP16-INT8 │ │ ├── person-reidentification-retail-0286.bin │ │ └── person-reidentification-retail-0286.xml │ └── FP32 │ ├── person-reidentification-retail-0286.bin │ └── person-reidentification-retail-0286.xml ├── person-reidentification-retail-0287 │ ├── FP16 │ │ ├── person-reidentification-retail-0287.bin │ │ └── person-reidentification-retail-0287.xml │ ├── FP16-INT8 │ │ ├── person-reidentification-retail-0287.bin │ │ └── person-reidentification-retail-0287.xml │ └── FP32 │ ├── person-reidentification-retail-0287.bin │ └── person-reidentification-retail-0287.xml ├── person-reidentification-retail-0288 │ ├── FP16 │ │ ├── person-reidentification-retail-0288.bin │ │ └── person-reidentification-retail-0288.xml │ └── FP32 │ ├── person-reidentification-retail-0288.bin │ └── person-reidentification-retail-0288.xml ├── person-vehicle-bike-detection-2000 │ ├── FP16 │ │ ├── person-vehicle-bike-detection-2000.bin │ │ └── person-vehicle-bike-detection-2000.xml │ ├── FP16-INT8 │ │ ├── person-vehicle-bike-detection-2000.bin │ │ └── person-vehicle-bike-detection-2000.xml │ └── FP32 │ ├── person-vehicle-bike-detection-2000.bin │ └── person-vehicle-bike-detection-2000.xml ├── person-vehicle-bike-detection-2001 │ ├── FP16 │ │ ├── person-vehicle-bike-detection-2001.bin │ │ └── person-vehicle-bike-detection-2001.xml │ ├── FP16-INT8 │ │ ├── person-vehicle-bike-detection-2001.bin │ │ └── person-vehicle-bike-detection-2001.xml │ └── FP32 │ ├── person-vehicle-bike-detection-2001.bin │ └── person-vehicle-bike-detection-2001.xml ├── person-vehicle-bike-detection-2002 │ ├── FP16 │ │ ├── person-vehicle-bike-detection-2002.bin │ │ └── person-vehicle-bike-detection-2002.xml │ ├── FP16-INT8 │ │ ├── person-vehicle-bike-detection-2002.bin │ │ └── person-vehicle-bike-detection-2002.xml │ └── FP32 │ ├── person-vehicle-bike-detection-2002.bin │ └── person-vehicle-bike-detection-2002.xml ├── person-vehicle-bike-detection-crossroad-0078 │ ├── FP16 │ │ ├── person-vehicle-bike-detection-crossroad-0078.bin │ │ └── person-vehicle-bike-detection-crossroad-0078.xml │ ├── FP16-INT8 │ │ ├── person-vehicle-bike-detection-crossroad-0078.bin │ │ └── person-vehicle-bike-detection-crossroad-0078.xml │ └── FP32 │ ├── person-vehicle-bike-detection-crossroad-0078.bin │ └── person-vehicle-bike-detection-crossroad-0078.xml ├── person-vehicle-bike-detection-crossroad-1016 │ ├── FP16 │ │ ├── person-vehicle-bike-detection-crossroad-1016.bin │ │ └── person-vehicle-bike-detection-crossroad-1016.xml │ ├── FP16-INT8 │ │ ├── person-vehicle-bike-detection-crossroad-1016.bin │ │ └── person-vehicle-bike-detection-crossroad-1016.xml │ └── FP32 │ ├── person-vehicle-bike-detection-crossroad-1016.bin │ └── person-vehicle-bike-detection-crossroad-1016.xml ├── person-vehicle-bike-detection-crossroad-yolov3-1020 │ ├── FP16 │ │ ├── person-vehicle-bike-detection-crossroad-yolov3-1020.bin │ │ └── person-vehicle-bike-detection-crossroad-yolov3-1020.xml │ ├── FP16-INT8 │ │ ├── person-vehicle-bike-detection-crossroad-yolov3-1020.bin │ │ └── person-vehicle-bike-detection-crossroad-yolov3-1020.xml │ └── FP32 │ ├── person-vehicle-bike-detection-crossroad-yolov3-1020.bin │ └── person-vehicle-bike-detection-crossroad-yolov3-1020.xml ├── product-detection-0001 │ ├── FP16 │ │ ├── product-detection-0001.bin │ │ └── product-detection-0001.xml │ ├── FP16-INT8 │ │ ├── product-detection-0001.bin │ │ └── product-detection-0001.xml │ └── FP32 │ ├── product-detection-0001.bin │ └── product-detection-0001.xml ├── resnet18-xnor-binary-onnx-0001 │ ├── FP16-INT1 │ │ ├── resnet18-xnor-binary-onnx-0001.bin │ │ └── resnet18-xnor-binary-onnx-0001.xml │ └── FP32-INT1 │ ├── resnet18-xnor-binary-onnx-0001.bin │ └── resnet18-xnor-binary-onnx-0001.xml ├── resnet50-binary-0001 │ ├── FP16-INT1 │ │ ├── resnet50-binary-0001.bin │ │ └── resnet50-binary-0001.xml │ └── FP32-INT1 │ ├── resnet50-binary-0001.bin │ └── resnet50-binary-0001.xml ├── road-segmentation-adas-0001 │ ├── FP16 │ │ ├── road-segmentation-adas-0001.bin │ │ └── road-segmentation-adas-0001.xml │ ├── FP16-INT8 │ │ ├── road-segmentation-adas-0001.bin │ │ └── road-segmentation-adas-0001.xml │ └── FP32 │ ├── road-segmentation-adas-0001.bin │ └── road-segmentation-adas-0001.xml ├── semantic-segmentation-adas-0001 │ ├── FP16 │ │ ├── semantic-segmentation-adas-0001.bin │ │ └── semantic-segmentation-adas-0001.xml │ ├── FP16-INT8 │ │ ├── semantic-segmentation-adas-0001.bin │ │ └── semantic-segmentation-adas-0001.xml │ └── FP32 │ ├── semantic-segmentation-adas-0001.bin │ └── semantic-segmentation-adas-0001.xml ├── single-image-super-resolution-1032 │ ├── FP16 │ │ ├── single-image-super-resolution-1032.bin │ │ └── single-image-super-resolution-1032.xml │ ├── FP16-INT8 │ │ ├── single-image-super-resolution-1032.bin │ │ └── single-image-super-resolution-1032.xml │ └── FP32 │ ├── single-image-super-resolution-1032.bin │ └── single-image-super-resolution-1032.xml ├── single-image-super-resolution-1033 │ ├── FP16 │ │ ├── single-image-super-resolution-1033.bin │ │ └── single-image-super-resolution-1033.xml │ ├── FP16-INT8 │ │ ├── single-image-super-resolution-1033.bin │ │ └── single-image-super-resolution-1033.xml │ └── FP32 │ ├── single-image-super-resolution-1033.bin │ └── single-image-super-resolution-1033.xml ├── text-detection-0003 │ ├── FP16 │ │ ├── text-detection-0003.bin │ │ └── text-detection-0003.xml │ ├── FP16-INT8 │ │ ├── text-detection-0003.bin │ │ └── text-detection-0003.xml │ └── FP32 │ ├── text-detection-0003.bin │ └── text-detection-0003.xml ├── text-detection-0004 │ ├── FP16 │ │ ├── text-detection-0004.bin │ │ └── text-detection-0004.xml │ ├── FP16-INT8 │ │ ├── text-detection-0004.bin │ │ └── text-detection-0004.xml │ └── FP32 │ ├── text-detection-0004.bin │ └── text-detection-0004.xml ├── text-image-super-resolution-0001 │ ├── FP16 │ │ ├── text-image-super-resolution-0001.bin │ │ └── text-image-super-resolution-0001.xml │ ├── FP16-INT8 │ │ ├── text-image-super-resolution-0001.bin │ │ └── text-image-super-resolution-0001.xml │ └── FP32 │ ├── text-image-super-resolution-0001.bin │ └── text-image-super-resolution-0001.xml ├── text-recognition-0012 │ ├── FP16 │ │ ├── text-recognition-0012.bin │ │ └── text-recognition-0012.xml │ ├── FP16-INT8 │ │ ├── text-recognition-0012.bin │ │ └── text-recognition-0012.xml │ └── FP32 │ ├── text-recognition-0012.bin │ └── text-recognition-0012.xml ├── text-spotting-0003 │ ├── text-spotting-0003-detector │ │ ├── FP16 │ │ │ ├── text-spotting-0003-detector.bin │ │ │ └── text-spotting-0003-detector.xml │ │ └── FP32 │ │ ├── text-spotting-0003-detector.bin │ │ └── text-spotting-0003-detector.xml │ ├── text-spotting-0003-recognizer-decoder │ │ ├── FP16 │ │ │ ├── text-spotting-0003-recognizer-decoder.bin │ │ │ └── text-spotting-0003-recognizer-decoder.xml │ │ └── FP32 │ │ ├── text-spotting-0003-recognizer-decoder.bin │ │ └── text-spotting-0003-recognizer-decoder.xml │ └── text-spotting-0003-recognizer-encoder │ ├── FP16 │ │ ├── text-spotting-0003-recognizer-encoder.bin │ │ └── text-spotting-0003-recognizer-encoder.xml │ └── FP32 │ ├── text-spotting-0003-recognizer-encoder.bin │ └── text-spotting-0003-recognizer-encoder.xml ├── unet-camvid-onnx-0001 │ ├── FP16 │ │ ├── unet-camvid-onnx-0001.bin │ │ └── unet-camvid-onnx-0001.xml │ ├── FP16-INT8 │ │ ├── unet-camvid-onnx-0001.bin │ │ └── unet-camvid-onnx-0001.xml │ └── FP32 │ ├── unet-camvid-onnx-0001.bin │ └── unet-camvid-onnx-0001.xml ├── vehicle-attributes-recognition-barrier-0039 │ ├── FP16 │ │ ├── vehicle-attributes-recognition-barrier-0039.bin │ │ └── vehicle-attributes-recognition-barrier-0039.xml │ ├── FP16-INT8 │ │ ├── vehicle-attributes-recognition-barrier-0039.bin │ │ └── vehicle-attributes-recognition-barrier-0039.xml │ └── FP32 │ ├── vehicle-attributes-recognition-barrier-0039.bin │ └── vehicle-attributes-recognition-barrier-0039.xml ├── vehicle-attributes-recognition-barrier-0042 │ ├── FP16 │ │ ├── vehicle-attributes-recognition-barrier-0042.bin │ │ └── vehicle-attributes-recognition-barrier-0042.xml │ ├── FP16-INT8 │ │ ├── vehicle-attributes-recognition-barrier-0042.bin │ │ └── vehicle-attributes-recognition-barrier-0042.xml │ └── FP32 │ ├── vehicle-attributes-recognition-barrier-0042.bin │ └── vehicle-attributes-recognition-barrier-0042.xml ├── vehicle-detection-0200 │ ├── FP16 │ │ ├── vehicle-detection-0200.bin │ │ └── vehicle-detection-0200.xml │ ├── FP16-INT8 │ │ ├── vehicle-detection-0200.bin │ │ └── vehicle-detection-0200.xml │ └── FP32 │ ├── vehicle-detection-0200.bin │ └── vehicle-detection-0200.xml ├── vehicle-detection-0201 │ ├── FP16 │ │ ├── vehicle-detection-0201.bin │ │ └── vehicle-detection-0201.xml │ ├── FP16-INT8 │ │ ├── vehicle-detection-0201.bin │ │ └── vehicle-detection-0201.xml │ └── FP32 │ ├── vehicle-detection-0201.bin │ └── vehicle-detection-0201.xml ├── vehicle-detection-0202 │ ├── FP16 │ │ ├── vehicle-detection-0202.bin │ │ └── vehicle-detection-0202.xml │ ├── FP16-INT8 │ │ ├── vehicle-detection-0202.bin │ │ └── vehicle-detection-0202.xml │ └── FP32 │ ├── vehicle-detection-0202.bin │ └── vehicle-detection-0202.xml ├── vehicle-detection-adas-0002 │ ├── FP16 │ │ ├── vehicle-detection-adas-0002.bin │ │ └── vehicle-detection-adas-0002.xml │ ├── FP16-INT8 │ │ ├── vehicle-detection-adas-0002.bin │ │ └── vehicle-detection-adas-0002.xml │ └── FP32 │ ├── vehicle-detection-adas-0002.bin │ └── vehicle-detection-adas-0002.xml ├── vehicle-license-plate-detection-barrier-0106 │ ├── FP16 │ │ ├── vehicle-license-plate-detection-barrier-0106.bin │ │ └── vehicle-license-plate-detection-barrier-0106.xml │ ├── FP16-INT8 │ │ ├── vehicle-license-plate-detection-barrier-0106.bin │ │ └── vehicle-license-plate-detection-barrier-0106.xml │ └── FP32 │ ├── vehicle-license-plate-detection-barrier-0106.bin │ └── vehicle-license-plate-detection-barrier-0106.xml ├── weld-porosity-detection-0001 │ ├── FP16 │ │ ├── weld-porosity-detection-0001.bin │ │ └── weld-porosity-detection-0001.xml │ ├── FP16-INT8 │ │ ├── weld-porosity-detection-0001.bin │ │ └── weld-porosity-detection-0001.xml │ └── FP32 │ ├── weld-porosity-detection-0001.bin │ └── weld-porosity-detection-0001.xml ├── yolo-v2-ava-0001 │ ├── FP16 │ │ ├── yolo-v2-ava-0001.bin │ │ └── yolo-v2-ava-0001.xml │ ├── FP16-INT8 │ │ ├── yolo-v2-ava-0001.bin │ │ └── yolo-v2-ava-0001.xml │ └── FP32 │ ├── yolo-v2-ava-0001.bin │ └── yolo-v2-ava-0001.xml ├── yolo-v2-ava-sparse-35-0001 │ ├── FP16 │ │ ├── yolo-v2-ava-sparse-35-0001.bin │ │ └── yolo-v2-ava-sparse-35-0001.xml │ ├── FP16-INT8 │ │ ├── yolo-v2-ava-sparse-35-0001.bin │ │ └── yolo-v2-ava-sparse-35-0001.xml │ └── FP32 │ ├── yolo-v2-ava-sparse-35-0001.bin │ └── yolo-v2-ava-sparse-35-0001.xml ├── yolo-v2-ava-sparse-70-0001 │ ├── FP16 │ │ ├── yolo-v2-ava-sparse-70-0001.bin │ │ └── yolo-v2-ava-sparse-70-0001.xml │ ├── FP16-INT8 │ │ ├── yolo-v2-ava-sparse-70-0001.bin │ │ └── yolo-v2-ava-sparse-70-0001.xml │ └── FP32 │ ├── yolo-v2-ava-sparse-70-0001.bin │ └── yolo-v2-ava-sparse-70-0001.xml ├── yolo-v2-tiny-ava-0001 │ ├── FP16 │ │ ├── yolo-v2-tiny-ava-0001.bin │ │ └── yolo-v2-tiny-ava-0001.xml │ ├── FP16-INT8 │ │ ├── yolo-v2-tiny-ava-0001.bin │ │ └── yolo-v2-tiny-ava-0001.xml │ └── FP32 │ ├── yolo-v2-tiny-ava-0001.bin │ └── yolo-v2-tiny-ava-0001.xml ├── yolo-v2-tiny-ava-sparse-30-0001 │ ├── FP16 │ │ ├── yolo-v2-tiny-ava-sparse-30-0001.bin │ │ └── yolo-v2-tiny-ava-sparse-30-0001.xml │ ├── FP16-INT8 │ │ ├── yolo-v2-tiny-ava-sparse-30-0001.bin │ │ └── yolo-v2-tiny-ava-sparse-30-0001.xml │ └── FP32 │ ├── yolo-v2-tiny-ava-sparse-30-0001.bin │ └── yolo-v2-tiny-ava-sparse-30-0001.xml ├── yolo-v2-tiny-ava-sparse-60-0001 │ ├── FP16 │ │ ├── yolo-v2-tiny-ava-sparse-60-0001.bin │ │ └── yolo-v2-tiny-ava-sparse-60-0001.xml │ ├── FP16-INT8 │ │ ├── yolo-v2-tiny-ava-sparse-60-0001.bin │ │ └── yolo-v2-tiny-ava-sparse-60-0001.xml │ └── FP32 │ ├── yolo-v2-tiny-ava-sparse-60-0001.bin │ └── yolo-v2-tiny-ava-sparse-60-0001.xml └── yolo-v2-tiny-vehicle-detection-0001 ├── FP16 │ ├── yolo-v2-tiny-vehicle-detection-0001.bin │ └── yolo-v2-tiny-vehicle-detection-0001.xml ├── FP16-INT8 │ ├── yolo-v2-tiny-vehicle-detection-0001.bin │ └── yolo-v2-tiny-vehicle-detection-0001.xml └── FP32 ├── yolo-v2-tiny-vehicle-detection-0001.bin └── yolo-v2-tiny-vehicle-detection-0001.xml 409 directories, 594 files
$ tree public public ├── Sphereface │ ├── Sphereface.caffemodel │ └── Sphereface.prototxt ├── aclnet │ └── aclnet_des_53.onnx ├── alexnet │ ├── alexnet.caffemodel │ ├── alexnet.prototxt │ └── alexnet.prototxt.orig ├── anti-spoof-mn3 │ └── anti-spoof-mn3.onnx ├── brain-tumor-segmentation-0001 │ ├── brain-tumor-segmentation-0001-0000.params │ └── brain-tumor-segmentation-0001-symbol.json ├── brain-tumor-segmentation-0002 │ └── brain-tumor-segmentation-0002.onnx ├── caffenet │ ├── bvlc_reference_caffenet.caffemodel │ └── deploy.prototxt ├── cocosnet │ └── model_files │ ├── ckpt │ │ ├── latest_net_Corr.pth │ │ └── latest_net_G.pth │ ├── models │ │ ├── __init__.py │ │ └── networks │ │ ├── __init__.py │ │ ├── __init__.py.orig │ │ ├── architecture.py │ │ ├── base_network.py │ │ ├── correspondence.py │ │ ├── correspondence.py.orig │ │ ├── generator.py │ │ ├── normalization.py │ │ ├── normalization.py.orig │ │ └── sync_batchnorm │ │ ├── __init__.py │ │ ├── batchnorm.py │ │ ├── comm.py │ │ └── replicate.py │ └── util │ ├── __init__.py │ ├── util.py │ └── util.py.orig ├── colorization-siggraph │ ├── ckpt │ │ └── colorization-siggraph.pth │ └── model │ ├── __init__.py │ ├── __init__.py.orig │ ├── base_color.py │ └── siggraph17.py ├── colorization-v2 │ ├── ckpt │ │ └── colorization-v2-eccv16.pth │ └── model │ ├── __init__.py │ ├── __init__.py.orig │ ├── base_color.py │ ├── eccv16.py │ └── eccv16.py.orig ├── common-sign-language-0001 │ └── s3d-rgb-mobilenet-v3-large-stream-jester.onnx ├── ctdet_coco_dlav0_384 │ └── ctdet_coco_dlav0_384.onnx ├── ctdet_coco_dlav0_512 │ └── ctdet_coco_dlav0_512.onnx ├── ctpn │ └── ctpn.pb ├── deeplabv3 │ └── deeplabv3_mnv2_pascal_train_aug │ ├── frozen_inference_graph.pb │ ├── model.ckpt-30000.data-00000-of-00001 │ └── model.ckpt-30000.index ├── densenet-121 │ ├── densenet-121.caffemodel │ └── densenet-121.prototxt ├── densenet-121-caffe2 │ ├── init_net.pb │ └── predict_net.pb ├── densenet-121-tf │ ├── tf-densenet121.ckpt.data-00000-of-00001 │ ├── tf-densenet121.ckpt.index │ └── tf-densenet121.ckpt.meta ├── densenet-161 │ ├── densenet-161.caffemodel │ └── densenet-161.prototxt ├── densenet-161-tf │ ├── tf-densenet161.ckpt.data-00000-of-00001 │ ├── tf-densenet161.ckpt.index │ └── tf-densenet161.ckpt.meta ├── densenet-169 │ ├── densenet-169.caffemodel │ └── densenet-169.prototxt ├── densenet-169-tf │ ├── tf-densenet169.ckpt.data-00000-of-00001 │ ├── tf-densenet169.ckpt.index │ └── tf-densenet169.ckpt.meta ├── densenet-201 │ ├── densenet-201.caffemodel │ └── densenet-201.prototxt ├── efficientdet-d0-tf │ ├── efficientdet-d0 │ │ ├── checkpoint │ │ ├── d0_coco_test-dev2017.txt │ │ ├── d0_coco_val.txt │ │ ├── model.data-00000-of-00001 │ │ ├── model.index │ │ └── model.meta │ └── model │ ├── backbone │ │ ├── backbone_factory.py │ │ ├── backbone_factory.py.orig │ │ ├── efficientnet_builder.py │ │ └── efficientnet_model.py │ ├── dataloader.py │ ├── dataloader.py.orig │ ├── hparams_config.py │ ├── hparams_config.py.orig │ ├── inference.py │ ├── inference.py.orig │ ├── keras │ │ ├── anchors.py │ │ ├── anchors.py.orig │ │ ├── efficientdet_keras.py │ │ ├── fpn_configs.py │ │ ├── postprocess.py │ │ └── util_keras.py │ ├── model_inspect.py │ ├── model_inspect.py.orig │ ├── nms_np.py │ └── utils.py ├── efficientdet-d1-tf │ ├── efficientdet-d1 │ │ ├── checkpoint │ │ ├── d1_coco_test-dev2017.txt │ │ ├── d1_coco_val.txt │ │ ├── model.data-00000-of-00001 │ │ ├── model.index │ │ └── model.meta │ └── model │ ├── backbone │ │ ├── backbone_factory.py │ │ ├── backbone_factory.py.orig │ │ ├── efficientnet_builder.py │ │ └── efficientnet_model.py │ ├── dataloader.py │ ├── dataloader.py.orig │ ├── hparams_config.py │ ├── hparams_config.py.orig │ ├── inference.py │ ├── inference.py.orig │ ├── keras │ │ ├── anchors.py │ │ ├── anchors.py.orig │ │ ├── efficientdet_keras.py │ │ ├── fpn_configs.py │ │ ├── postprocess.py │ │ └── util_keras.py │ ├── model_inspect.py │ ├── model_inspect.py.orig │ ├── nms_np.py │ └── utils.py ├── efficientnet-b0 │ └── efficientnet-b0 │ ├── checkpoint │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ └── model.ckpt.meta ├── efficientnet-b0-pytorch │ ├── efficientnet-b0.pth │ └── model │ ├── __init__.py │ ├── conv2d_helpers.py │ ├── efficientnet_builder.py │ ├── gen_efficientnet.py │ └── helpers.py ├── efficientnet-b0_auto_aug │ └── efficientnet-b0 │ ├── checkpoint │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ ├── model.ckpt.meta │ └── results.txt ├── efficientnet-b5 │ └── efficientnet-b5 │ ├── checkpoint │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ └── model.ckpt.meta ├── efficientnet-b5-pytorch │ ├── model │ │ ├── __init__.py │ │ ├── conv2d_helpers.py │ │ ├── conv2d_helpers.py.orig │ │ ├── efficientnet_builder.py │ │ ├── gen_efficientnet.py │ │ └── helpers.py │ └── tf-efficientnet-b5.pth ├── efficientnet-b7-pytorch │ ├── model │ │ ├── __init__.py │ │ ├── conv2d_helpers.py │ │ ├── conv2d_helpers.py.orig │ │ ├── efficientnet_builder.py │ │ ├── gen_efficientnet.py │ │ └── helpers.py │ └── tf-efficientnet-b7.pth ├── efficientnet-b7_auto_aug │ └── efficientnet-b7 │ ├── checkpoint │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ ├── model.ckpt.meta │ └── results.txt ├── face-detection-retail-0044 │ ├── face-detection-retail-0044.caffemodel │ └── face-detection-retail-0044.prototxt ├── face-recognition-mobilefacenet-arcface │ └── model-y1-test2 │ ├── log │ ├── model-0000.params │ └── model-symbol.json ├── face-recognition-resnet100-arcface │ └── model-r100-ii │ ├── log │ ├── model-0000.params │ └── model-symbol.json ├── face-recognition-resnet34-arcface │ └── model-r34-amf │ ├── log │ ├── model-0000.params │ └── model-symbol.json ├── face-recognition-resnet50-arcface │ └── model-r50-am-lfw │ ├── log │ ├── model-0000.params │ └── model-symbol.json ├── faceboxes-pytorch │ ├── FaceBoxesProd.pth │ └── faceboxes.py ├── facenet-20180408-102900 │ └── 20180408-102900 │ ├── 20180408-102900.pb │ ├── model-20180408-102900.ckpt-90.data-00000-of-00001 │ ├── model-20180408-102900.ckpt-90.index │ └── model-20180408-102900.meta ├── fast-neural-style-mosaic-onnx │ └── fast-neural-style-mosaic-onnx.onnx ├── faster_rcnn_inception_resnet_v2_atrous_coco │ └── faster_rcnn_inception_resnet_v2_atrous_coco_2018_01_28 │ ├── checkpoint │ ├── frozen_inference_graph.pb │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ ├── model.ckpt.meta │ ├── pipeline.config │ └── saved_model │ ├── saved_model.pb │ └── variables ├── faster_rcnn_inception_v2_coco │ └── faster_rcnn_inception_v2_coco_2018_01_28 │ ├── checkpoint │ ├── frozen_inference_graph.pb │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ ├── model.ckpt.meta │ ├── pipeline.config │ └── saved_model │ ├── saved_model.pb │ └── variables ├── faster_rcnn_resnet101_coco │ └── faster_rcnn_resnet101_coco_2018_01_28 │ ├── checkpoint │ ├── frozen_inference_graph.pb │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ ├── model.ckpt.meta │ ├── pipeline.config │ └── saved_model │ ├── saved_model.pb │ └── variables ├── faster_rcnn_resnet50_coco │ └── faster_rcnn_resnet50_coco_2018_01_28 │ ├── checkpoint │ ├── frozen_inference_graph.pb │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ ├── model.ckpt.meta │ ├── pipeline.config │ └── saved_model │ ├── saved_model.pb │ └── variables ├── fcrn-dp-nyu-depth-v2-tf │ ├── NYU_FCRN.ckpt.data-00000-of-00001 │ ├── NYU_FCRN.ckpt.index │ └── NYU_FCRN.ckpt.meta ├── forward-tacotron │ ├── forward-tacotron-duration-prediction │ │ └── forward-tacotron-duration-prediction │ │ ├── README.txt │ │ └── forward_tacotron_duration_prediction.onnx │ └── forward-tacotron-regression │ └── forward-tacotron-regression │ ├── README.txt │ └── forward_tacotron_regression.onnx ├── gmcnn-places2-tf │ └── gmcnn-places2-tf │ ├── README.txt │ └── frozen_model.pb ├── googlenet-v1 │ ├── googlenet-v1.caffemodel │ ├── googlenet-v1.prototxt │ └── googlenet-v1.prototxt.orig ├── googlenet-v1-tf │ ├── inception_v1.ckpt │ └── models │ └── research │ └── slim │ ├── nets │ │ ├── inception.py │ │ ├── inception.py.orig │ │ ├── inception_utils.py │ │ ├── inception_v1.py │ │ ├── nets_factory.py │ │ └── nets_factory.py.orig │ ├── tf_slim │ │ ├── __init__.py │ │ ├── data │ │ │ ├── __init__.py │ │ │ ├── data_decoder.py │ │ │ ├── data_provider.py │ │ │ ├── dataset.py │ │ │ ├── dataset_data_provider.py │ │ │ ├── dataset_data_provider_test.py │ │ │ ├── parallel_reader.py │ │ │ ├── parallel_reader_test.py │ │ │ ├── prefetch_queue.py │ │ │ ├── prefetch_queue_test.py │ │ │ ├── test_utils.py │ │ │ ├── tfexample_decoder.py │ │ │ └── tfexample_decoder_test.py │ │ ├── evaluation.py │ │ ├── evaluation_test.py │ │ ├── layers │ │ │ ├── __init__.py │ │ │ ├── bucketization_op.py │ │ │ ├── initializers.py │ │ │ ├── initializers_test.py │ │ │ ├── layers.py │ │ │ ├── layers.py.orig │ │ │ ├── layers_test.py │ │ │ ├── normalization.py │ │ │ ├── normalization_test.py │ │ │ ├── optimizers.py │ │ │ ├── optimizers_test.py │ │ │ ├── regularizers.py │ │ │ ├── regularizers_test.py │ │ │ ├── rev_block_lib.py │ │ │ ├── rev_block_lib_test.py │ │ │ ├── sparse_ops.py │ │ │ ├── sparse_ops_test.py │ │ │ ├── summaries.py │ │ │ ├── summaries_test.py │ │ │ ├── utils.py │ │ │ └── utils_test.py │ │ ├── learning.py │ │ ├── learning_test.py │ │ ├── losses │ │ │ ├── __init__.py │ │ │ ├── loss_ops.py │ │ │ ├── loss_ops_test.py │ │ │ ├── metric_learning.py │ │ │ └── metric_learning_test.py │ │ ├── metrics │ │ │ ├── __init__.py │ │ │ ├── classification.py │ │ │ ├── classification_test.py │ │ │ ├── histogram_ops.py │ │ │ ├── histogram_ops_test.py │ │ │ ├── metric_ops.py │ │ │ ├── metric_ops_large_test.py │ │ │ └── metric_ops_test.py │ │ ├── model_analyzer.py │ │ ├── nets │ │ │ ├── __init__.py │ │ │ ├── alexnet.py │ │ │ ├── alexnet_test.py │ │ │ ├── inception.py │ │ │ ├── inception_v1.py │ │ │ ├── inception_v1_test.py │ │ │ ├── inception_v2.py │ │ │ ├── inception_v2_test.py │ │ │ ├── inception_v3.py │ │ │ ├── inception_v3_test.py │ │ │ ├── overfeat.py │ │ │ ├── overfeat_test.py │ │ │ ├── resnet_utils.py │ │ │ ├── resnet_v1.py │ │ │ ├── resnet_v1_test.py │ │ │ ├── resnet_v2.py │ │ │ ├── resnet_v2_test.py │ │ │ ├── vgg.py │ │ │ └── vgg_test.py │ │ ├── ops │ │ │ ├── __init__.py │ │ │ ├── arg_scope.py │ │ │ ├── arg_scope_test.py │ │ │ ├── framework_ops.py │ │ │ ├── framework_ops_test.py │ │ │ ├── variables.py │ │ │ └── variables_test.py │ │ ├── queues.py │ │ ├── summaries.py │ │ ├── summaries_test.py │ │ └── training │ │ ├── __init__.py │ │ ├── evaluation.py │ │ ├── evaluation_test.py │ │ ├── training.py │ │ └── training_test.py │ └── tf_slim-1.1.0.dist-info │ ├── DESCRIPTION.rst │ ├── METADATA │ ├── RECORD │ ├── WHEEL │ ├── metadata.json │ └── top_level.txt ├── googlenet-v2 │ ├── googlenet-v2.caffemodel │ ├── googlenet-v2.prototxt │ └── googlenet-v2.prototxt.orig ├── googlenet-v2-tf │ ├── inception_v2.ckpt │ └── models │ └── research │ └── slim │ ├── nets │ │ ├── inception.py │ │ ├── inception.py.orig │ │ ├── inception_utils.py │ │ ├── inception_v2.py │ │ ├── nets_factory.py │ │ └── nets_factory.py.orig │ ├── tf_slim │ │ ├── __init__.py │ │ ├── data │ │ │ ├── __init__.py │ │ │ ├── data_decoder.py │ │ │ ├── data_provider.py │ │ │ ├── dataset.py │ │ │ ├── dataset_data_provider.py │ │ │ ├── dataset_data_provider_test.py │ │ │ ├── parallel_reader.py │ │ │ ├── parallel_reader_test.py │ │ │ ├── prefetch_queue.py │ │ │ ├── prefetch_queue_test.py │ │ │ ├── test_utils.py │ │ │ ├── tfexample_decoder.py │ │ │ └── tfexample_decoder_test.py │ │ ├── evaluation.py │ │ ├── evaluation_test.py │ │ ├── layers │ │ │ ├── __init__.py │ │ │ ├── bucketization_op.py │ │ │ ├── initializers.py │ │ │ ├── initializers_test.py │ │ │ ├── layers.py │ │ │ ├── layers.py.orig │ │ │ ├── layers_test.py │ │ │ ├── normalization.py │ │ │ ├── normalization_test.py │ │ │ ├── optimizers.py │ │ │ ├── optimizers_test.py │ │ │ ├── regularizers.py │ │ │ ├── regularizers_test.py │ │ │ ├── rev_block_lib.py │ │ │ ├── rev_block_lib_test.py │ │ │ ├── sparse_ops.py │ │ │ ├── sparse_ops_test.py │ │ │ ├── summaries.py │ │ │ ├── summaries_test.py │ │ │ ├── utils.py │ │ │ └── utils_test.py │ │ ├── learning.py │ │ ├── learning_test.py │ │ ├── losses │ │ │ ├── __init__.py │ │ │ ├── loss_ops.py │ │ │ ├── loss_ops_test.py │ │ │ ├── metric_learning.py │ │ │ └── metric_learning_test.py │ │ ├── metrics │ │ │ ├── __init__.py │ │ │ ├── classification.py │ │ │ ├── classification_test.py │ │ │ ├── histogram_ops.py │ │ │ ├── histogram_ops_test.py │ │ │ ├── metric_ops.py │ │ │ ├── metric_ops_large_test.py │ │ │ └── metric_ops_test.py │ │ ├── model_analyzer.py │ │ ├── nets │ │ │ ├── __init__.py │ │ │ ├── alexnet.py │ │ │ ├── alexnet_test.py │ │ │ ├── inception.py │ │ │ ├── inception_v1.py │ │ │ ├── inception_v1_test.py │ │ │ ├── inception_v2.py │ │ │ ├── inception_v2_test.py │ │ │ ├── inception_v3.py │ │ │ ├── inception_v3_test.py │ │ │ ├── overfeat.py │ │ │ ├── overfeat_test.py │ │ │ ├── resnet_utils.py │ │ │ ├── resnet_v1.py │ │ │ ├── resnet_v1_test.py │ │ │ ├── resnet_v2.py │ │ │ ├── resnet_v2_test.py │ │ │ ├── vgg.py │ │ │ └── vgg_test.py │ │ ├── ops │ │ │ ├── __init__.py │ │ │ ├── arg_scope.py │ │ │ ├── arg_scope_test.py │ │ │ ├── framework_ops.py │ │ │ ├── framework_ops_test.py │ │ │ ├── variables.py │ │ │ └── variables_test.py │ │ ├── queues.py │ │ ├── summaries.py │ │ ├── summaries_test.py │ │ └── training │ │ ├── __init__.py │ │ ├── evaluation.py │ │ ├── evaluation_test.py │ │ ├── training.py │ │ └── training_test.py │ └── tf_slim-1.1.0.dist-info │ ├── DESCRIPTION.rst │ ├── METADATA │ ├── RECORD │ ├── WHEEL │ ├── metadata.json │ └── top_level.txt ├── googlenet-v3 │ ├── imagenet_slim_labels.txt │ └── inception_v3_2016_08_28_frozen.pb ├── googlenet-v3-pytorch │ └── inception_v3_google-1a9a5a14.pth ├── googlenet-v4-tf │ ├── inception_v4.ckpt │ └── models │ └── research │ └── slim │ ├── nets │ │ ├── inception.py │ │ ├── inception.py.orig │ │ ├── inception_utils.py │ │ ├── inception_v4.py │ │ ├── nets_factory.py │ │ └── nets_factory.py.orig │ ├── tf_slim │ │ ├── __init__.py │ │ ├── data │ │ │ ├── __init__.py │ │ │ ├── data_decoder.py │ │ │ ├── data_provider.py │ │ │ ├── dataset.py │ │ │ ├── dataset_data_provider.py │ │ │ ├── dataset_data_provider_test.py │ │ │ ├── parallel_reader.py │ │ │ ├── parallel_reader_test.py │ │ │ ├── prefetch_queue.py │ │ │ ├── prefetch_queue_test.py │ │ │ ├── test_utils.py │ │ │ ├── tfexample_decoder.py │ │ │ └── tfexample_decoder_test.py │ │ ├── evaluation.py │ │ ├── evaluation_test.py │ │ ├── layers │ │ │ ├── __init__.py │ │ │ ├── bucketization_op.py │ │ │ ├── initializers.py │ │ │ ├── initializers_test.py │ │ │ ├── layers.py │ │ │ ├── layers.py.orig │ │ │ ├── layers_test.py │ │ │ ├── normalization.py │ │ │ ├── normalization_test.py │ │ │ ├── optimizers.py │ │ │ ├── optimizers_test.py │ │ │ ├── regularizers.py │ │ │ ├── regularizers_test.py │ │ │ ├── rev_block_lib.py │ │ │ ├── rev_block_lib_test.py │ │ │ ├── sparse_ops.py │ │ │ ├── sparse_ops_test.py │ │ │ ├── summaries.py │ │ │ ├── summaries_test.py │ │ │ ├── utils.py │ │ │ └── utils_test.py │ │ ├── learning.py │ │ ├── learning_test.py │ │ ├── losses │ │ │ ├── __init__.py │ │ │ ├── loss_ops.py │ │ │ ├── loss_ops_test.py │ │ │ ├── metric_learning.py │ │ │ └── metric_learning_test.py │ │ ├── metrics │ │ │ ├── __init__.py │ │ │ ├── classification.py │ │ │ ├── classification_test.py │ │ │ ├── histogram_ops.py │ │ │ ├── histogram_ops_test.py │ │ │ ├── metric_ops.py │ │ │ ├── metric_ops_large_test.py │ │ │ └── metric_ops_test.py │ │ ├── model_analyzer.py │ │ ├── nets │ │ │ ├── __init__.py │ │ │ ├── alexnet.py │ │ │ ├── alexnet_test.py │ │ │ ├── inception.py │ │ │ ├── inception_v1.py │ │ │ ├── inception_v1_test.py │ │ │ ├── inception_v2.py │ │ │ ├── inception_v2_test.py │ │ │ ├── inception_v3.py │ │ │ ├── inception_v3_test.py │ │ │ ├── overfeat.py │ │ │ ├── overfeat_test.py │ │ │ ├── resnet_utils.py │ │ │ ├── resnet_v1.py │ │ │ ├── resnet_v1_test.py │ │ │ ├── resnet_v2.py │ │ │ ├── resnet_v2_test.py │ │ │ ├── vgg.py │ │ │ └── vgg_test.py │ │ ├── ops │ │ │ ├── __init__.py │ │ │ ├── arg_scope.py │ │ │ ├── arg_scope_test.py │ │ │ ├── framework_ops.py │ │ │ ├── framework_ops_test.py │ │ │ ├── variables.py │ │ │ └── variables_test.py │ │ ├── queues.py │ │ ├── summaries.py │ │ ├── summaries_test.py │ │ └── training │ │ ├── __init__.py │ │ ├── evaluation.py │ │ ├── evaluation_test.py │ │ ├── training.py │ │ └── training_test.py │ └── tf_slim-1.1.0.dist-info │ ├── DESCRIPTION.rst │ ├── METADATA │ ├── RECORD │ ├── WHEEL │ ├── metadata.json │ └── top_level.txt ├── hbonet-0.25 │ ├── hbonet.py │ └── hbonet_0_25.pth ├── hbonet-0.5 │ ├── hbonet.py │ └── hbonet_0_5.pth ├── hbonet-1.0 │ ├── hbonet.py │ └── hbonet_1_0.pth ├── hrnet-v2-c1-segmentation │ ├── ckpt │ │ ├── decoder_epoch_30.pth │ │ └── encoder_epoch_30.pth │ └── mit_semseg │ ├── __init__.py │ ├── lib │ │ ├── __init__.py │ │ └── nn │ │ ├── __init__.py │ │ ├── modules │ │ │ ├── __init__.py │ │ │ ├── batchnorm.py │ │ │ ├── comm.py │ │ │ └── replicate.py │ │ └── parallel │ │ ├── __init__.py │ │ └── data_parallel.py │ └── models │ ├── __init__.py │ ├── hrnet.py │ ├── mobilenet.py │ ├── models.py │ ├── resnet.py │ ├── resnext.py │ └── utils.py ├── human-pose-estimation-3d-0001 │ ├── human-pose-estimation-3d-0001.pth │ └── model │ ├── __init__.py │ ├── conv.py │ └── with_mobilenet.py ├── i3d-rgb-tf │ └── i3d-rgb.frozen.pb ├── inception-resnet-v2-tf │ ├── inception_resnet_v2.pb │ ├── inception_resnet_v2.tflite │ └── labels.txt ├── license-plate-recognition-barrier-0007 │ └── license-plate-recognition-barrier-0007 │ ├── graph.pb.frozen │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ └── model.ckpt.meta ├── mask_rcnn_inception_resnet_v2_atrous_coco │ └── mask_rcnn_inception_resnet_v2_atrous_coco_2018_01_28 │ ├── checkpoint │ ├── frozen_inference_graph.pb │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ ├── model.ckpt.meta │ ├── pipeline.config │ └── saved_model │ ├── saved_model.pb │ └── variables ├── mask_rcnn_inception_v2_coco │ └── mask_rcnn_inception_v2_coco_2018_01_28 │ ├── checkpoint │ ├── frozen_inference_graph.pb │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ ├── model.ckpt.meta │ ├── pipeline.config │ └── saved_model │ ├── saved_model.pb │ └── variables ├── mask_rcnn_resnet101_atrous_coco │ └── mask_rcnn_resnet101_atrous_coco_2018_01_28 │ ├── checkpoint │ ├── frozen_inference_graph.pb │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ ├── model.ckpt.meta │ ├── pipeline.config │ └── saved_model │ ├── saved_model.pb │ └── variables ├── mask_rcnn_resnet50_atrous_coco │ └── mask_rcnn_resnet50_atrous_coco_2018_01_28 │ ├── checkpoint │ ├── frozen_inference_graph.pb │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ ├── model.ckpt.meta │ ├── pipeline.config │ └── saved_model │ ├── saved_model.pb │ └── variables ├── midasnet │ ├── model.pt │ └── models │ ├── base_model.py │ ├── blocks.py │ ├── blocks.py.orig │ └── midas_net.py ├── mobilefacedet-v1-mxnet │ ├── mobilefacedet_v1_mxnet-0000.params │ └── mobilefacedet_v1_mxnet-symbol.json ├── mobilenet-ssd │ ├── FP16 │ │ ├── mobilenet-ssd.bin │ │ ├── mobilenet-ssd.mapping │ │ └── mobilenet-ssd.xml │ ├── FP32 │ │ ├── mobilenet-ssd.bin │ │ ├── mobilenet-ssd.mapping │ │ └── mobilenet-ssd.xml │ ├── mobilenet-ssd.caffemodel │ └── mobilenet-ssd.prototxt ├── mobilenet-v1-0.25-128 │ ├── mobilenet_v1_0.25_128.ckpt.data-00000-of-00001 │ ├── mobilenet_v1_0.25_128.ckpt.index │ ├── mobilenet_v1_0.25_128.ckpt.meta │ ├── mobilenet_v1_0.25_128.tflite │ ├── mobilenet_v1_0.25_128_eval.pbtxt │ ├── mobilenet_v1_0.25_128_frozen.pb │ └── mobilenet_v1_0.25_128_info.txt ├── mobilenet-v1-0.50-160 │ ├── mobilenet_v1_0.5_160.ckpt.data-00000-of-00001 │ ├── mobilenet_v1_0.5_160.ckpt.index │ ├── mobilenet_v1_0.5_160.ckpt.meta │ ├── mobilenet_v1_0.5_160.tflite │ ├── mobilenet_v1_0.5_160_eval.pbtxt │ ├── mobilenet_v1_0.5_160_frozen.pb │ └── mobilenet_v1_0.5_160_info.txt ├── mobilenet-v1-0.50-224 │ ├── mobilenet_v1_0.5_224.ckpt.data-00000-of-00001 │ ├── mobilenet_v1_0.5_224.ckpt.index │ ├── mobilenet_v1_0.5_224.ckpt.meta │ ├── mobilenet_v1_0.5_224.tflite │ ├── mobilenet_v1_0.5_224_eval.pbtxt │ ├── mobilenet_v1_0.5_224_frozen.pb │ └── mobilenet_v1_0.5_224_info.txt ├── mobilenet-v1-1.0-224 │ ├── mobilenet-v1-1.0-224.caffemodel │ └── mobilenet-v1-1.0-224.prototxt ├── mobilenet-v1-1.0-224-tf │ ├── mobilenet_v1_1.0_224.ckpt.data-00000-of-00001 │ ├── mobilenet_v1_1.0_224.ckpt.index │ ├── mobilenet_v1_1.0_224.ckpt.meta │ ├── mobilenet_v1_1.0_224.tflite │ ├── mobilenet_v1_1.0_224_eval.pbtxt │ ├── mobilenet_v1_1.0_224_frozen.pb │ └── mobilenet_v1_1.0_224_info.txt ├── mobilenet-v2 │ ├── mobilenet-v2.caffemodel │ └── mobilenet-v2.prototxt ├── mobilenet-v2-1.0-224 │ ├── mobilenet_v2_1.0_224.ckpt.data-00000-of-00001 │ ├── mobilenet_v2_1.0_224.ckpt.index │ ├── mobilenet_v2_1.0_224.ckpt.meta │ ├── mobilenet_v2_1.0_224.tflite │ ├── mobilenet_v2_1.0_224_eval.pbtxt │ ├── mobilenet_v2_1.0_224_frozen.pb │ └── mobilenet_v2_1.0_224_info.txt ├── mobilenet-v2-1.4-224 │ ├── mobilenet_v2_1.4_224.ckpt.data-00000-of-00001 │ ├── mobilenet_v2_1.4_224.ckpt.index │ ├── mobilenet_v2_1.4_224.ckpt.meta │ ├── mobilenet_v2_1.4_224.tflite │ ├── mobilenet_v2_1.4_224_eval.pbtxt │ ├── mobilenet_v2_1.4_224_frozen.pb │ └── mobilenet_v2_1.4_224_info.txt ├── mobilenet-v2-pytorch │ └── mobilenet_v2-b0353104.pth ├── mobilenet-v3-large-1.0-224-tf │ └── v3-large_224_1.0_float │ ├── ema │ │ ├── checkpoint │ │ ├── model-540000.data-00000-of-00001 │ │ ├── model-540000.index │ │ └── model-540000.meta │ ├── pristine │ │ ├── model.ckpt-540000.data-00000-of-00001 │ │ ├── model.ckpt-540000.index │ │ └── model.ckpt-540000.meta │ ├── v3-large_224_1.0_float.pb │ └── v3-large_224_1.0_float.tflite ├── mobilenet-v3-small-1.0-224-tf │ └── v3-small_224_1.0_float │ ├── ema │ │ ├── checkpoint │ │ ├── model-388500.data-00000-of-00001 │ │ ├── model-388500.index │ │ └── model-388500.meta │ ├── pristine │ │ ├── model.ckpt-388500.data-00000-of-00001 │ │ ├── model.ckpt-388500.index │ │ └── model.ckpt-388500.meta │ ├── v3-small_224_1.0_float.pb │ └── v3-small_224_1.0_float.tflite ├── mozilla-deepspeech-0.6.1 │ └── deepspeech-0.6.1-models │ ├── lm.binary │ ├── output_graph.pb │ ├── output_graph.pbmm │ ├── output_graph.tflite │ └── trie ├── mozilla-deepspeech-0.8.2 │ ├── deepspeech-0.8.2-models.pbmm │ └── deepspeech-0.8.2-models.scorer ├── mtcnn │ ├── mtcnn-o │ │ ├── mtcnn-o.caffemodel │ │ └── mtcnn-o.prototxt │ ├── mtcnn-p │ │ ├── mtcnn-p.caffemodel │ │ ├── mtcnn-p.prototxt │ │ └── mtcnn-p.prototxt.orig │ └── mtcnn-r │ ├── mtcnn-r.caffemodel │ └── mtcnn-r.prototxt ├── octave-densenet-121-0.125 │ └── a01_densenet-121_alpha-0.125 │ ├── checkpoint-0-0000.params │ └── checkpoint-0-symbol.json ├── octave-resnet-101-0.125 │ └── a06_resnet-101_alpha-0.125 │ ├── checkpoint-0-0000.params │ └── checkpoint-0-symbol.json ├── octave-resnet-200-0.125 │ └── a08_resnet-200_alpha-0.125 │ ├── checkpoint-0-0000.params │ └── checkpoint-0-symbol.json ├── octave-resnet-26-0.25 │ └── a02_resnet-26_alpha-0.250 │ ├── checkpoint-0-0000.params │ └── checkpoint-0-symbol.json ├── octave-resnet-50-0.125 │ └── a03_resnet-50_alpha-0.125 │ ├── checkpoint-0-0000.params │ └── checkpoint-0-symbol.json ├── octave-resnext-101-0.25 │ └── a07_resnext-101_32x4d_alpha-0.250 │ ├── checkpoint-0-0000.params │ └── checkpoint-0-symbol.json ├── octave-resnext-50-0.25 │ └── a04_resnext-50_32x4d_alpha-0.250 │ ├── checkpoint-0-0000.params │ └── checkpoint-0-symbol.json ├── octave-se-resnet-50-0.125 │ └── a05_se-resnet-50_alpha-0.125 │ ├── checkpoint-0-0000.params │ └── checkpoint-0-symbol.json ├── open-closed-eye-0001 │ └── open-closed-eye.onnx ├── pelee-coco │ └── pelee_coco │ ├── deploy.prototxt │ ├── deploy.prototxt.orig │ ├── pelee_coco_304x304_acc3889.caffemodel │ ├── solver.prototxt │ ├── solver_test_dev.prototxt │ ├── test.prototxt │ ├── test_dev.prototxt │ └── train.prototxt ├── public │ └── mobilenet-ssd ├── resnest-50-pytorch │ ├── model │ │ ├── resnest.py │ │ ├── resnet.py │ │ └── splat.py │ └── resnest50-528c19ca.pth ├── resnet-18-pytorch │ └── resnet18-5c106cde.pth ├── resnet-34-pytorch │ └── resnet34-333f7ec4.pth ├── resnet-50-caffe2 │ ├── init_net.pb │ └── predict_net.pb ├── resnet-50-pytorch │ └── resnet50-19c8e357.pth ├── resnet-50-tf │ └── resnet_v1-50.pb ├── retinaface-anti-cov │ ├── mnet_cov2-0000.params │ └── mnet_cov2-symbol.json ├── retinaface-resnet50 │ ├── R50-0000.params │ └── R50-symbol.json ├── retinanet-tf │ └── retinanet_resnet50_coco_best_v2.1.0.pb ├── rfcn-resnet101-coco-tf │ └── rfcn_resnet101_coco_2018_01_28 │ ├── checkpoint │ ├── frozen_inference_graph.pb │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ ├── model.ckpt.meta │ ├── pipeline.config │ └── saved_model │ ├── saved_model.pb │ └── variables ├── se-inception │ ├── se-inception.caffemodel │ └── se-inception.prototxt ├── se-resnet-101 │ ├── se-resnet-101.caffemodel │ └── se-resnet-101.prototxt ├── se-resnet-152 │ ├── se-resnet-152.caffemodel │ └── se-resnet-152.prototxt ├── se-resnet-50 │ ├── se-resnet-50.caffemodel │ └── se-resnet-50.prototxt ├── se-resnext-101 │ ├── se-resnext-101.caffemodel │ └── se-resnext-101.prototxt ├── se-resnext-50 │ ├── se-resnext-50.caffemodel │ └── se-resnext-50.prototxt ├── shufflenet-v2-x1.0 │ └── shufflenetv2_x1-5666bf0f80.pth ├── single-human-pose-estimation-0001 │ └── single-human-pose-estimation-0001 │ ├── models │ │ ├── __init__.py │ │ ├── conv.py │ │ ├── single_person_pose_with_mobilenet.py │ │ └── with_mobilenet.py │ └── single-human-pose-estimation-0001.pth ├── squeezenet1.0 │ ├── squeezenet1.0.caffemodel │ ├── squeezenet1.0.prototxt │ └── squeezenet1.0.prototxt.orig ├── squeezenet1.1 │ ├── squeezenet1.1.caffemodel │ ├── squeezenet1.1.prototxt │ └── squeezenet1.1.prototxt.orig ├── squeezenet1.1-caffe2 │ ├── init_net.pb │ └── predict_net.pb ├── ssd-resnet34-1200-onnx │ └── resnet34-ssd1200.onnx ├── ssd300 │ └── models │ └── VGGNet │ └── VOC0712Plus │ └── SSD_300x300_ft │ ├── VGG_VOC0712Plus_SSD_300x300_ft_iter_160000.caffemodel │ ├── deploy.prototxt │ ├── deploy.prototxt.orig │ ├── finetune_ssd_pascal.py │ ├── solver.prototxt │ ├── test.prototxt │ └── train.prototxt ├── ssd512 │ └── models │ └── VGGNet │ └── VOC0712Plus │ └── SSD_512x512 │ ├── VGG_VOC0712Plus_SSD_512x512_iter_240000.caffemodel │ ├── deploy.prototxt │ ├── deploy.prototxt.orig │ ├── solver.prototxt │ ├── ssd_pascal_512.py │ ├── test.prototxt │ └── train.prototxt ├── ssd_mobilenet_v1_coco │ └── ssd_mobilenet_v1_coco_2018_01_28 │ ├── checkpoint │ ├── frozen_inference_graph.pb │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ ├── model.ckpt.meta │ ├── pipeline.config │ └── saved_model │ ├── saved_model.pb │ └── variables ├── ssd_mobilenet_v1_fpn_coco │ └── ssd_mobilenet_v1_fpn_shared_box_predictor_640x640_coco14_sync_2018_07_03 │ ├── checkpoint │ ├── frozen_inference_graph.pb │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ ├── model.ckpt.meta │ ├── pipeline.config │ └── saved_model │ ├── saved_model.pb │ └── variables ├── ssd_mobilenet_v2_coco │ └── ssd_mobilenet_v2_coco_2018_03_29 │ ├── checkpoint │ ├── frozen_inference_graph.pb │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ ├── model.ckpt.meta │ ├── pipeline.config │ └── saved_model │ ├── saved_model.pb │ └── variables ├── ssd_resnet50_v1_fpn_coco │ └── ssd_resnet50_v1_fpn_shared_box_predictor_640x640_coco14_sync_2018_07_03 │ ├── checkpoint │ ├── frozen_inference_graph.pb │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ ├── model.ckpt.meta │ ├── pipeline.config │ └── saved_model │ ├── saved_model.pb │ └── variables ├── ssdlite_mobilenet_v2 │ └── ssdlite_mobilenet_v2_coco_2018_05_09 │ ├── checkpoint │ ├── frozen_inference_graph.pb │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ ├── model.ckpt.meta │ ├── pipeline.config │ └── saved_model │ ├── saved_model.pb │ └── variables ├── vehicle-license-plate-detection-barrier-0123 │ └── model │ ├── model.ckpt.data-00000-of-00001 │ ├── model.ckpt.index │ ├── model.ckpt.meta │ ├── model.pb.frozen │ └── model.tfmo.json ├── vehicle-reid-0001 │ └── osnet_ain_x1_0_vehicle_reid.onnx ├── vgg16 │ ├── vgg16.caffemodel │ ├── vgg16.prototxt │ └── vgg16.prototxt.orig ├── vgg19 │ ├── vgg19.caffemodel │ ├── vgg19.prototxt │ └── vgg19.prototxt.orig ├── vgg19-caffe2 │ ├── init_net.pb │ └── predict_net.pb ├── wavernn │ ├── wavernn-rnn │ │ └── wavernn-rnn │ │ ├── README.txt │ │ └── wavernn_rnn.onnx │ └── wavernn-upsampler │ └── wavernn-upsampler │ ├── README.txt │ └── wavernn_upsampler.onnx ├── yolact-resnet50-fpn-pytorch │ └── yolact │ ├── backbone.py │ ├── data │ │ └── config.py │ ├── layers │ │ └── interpolate.py │ ├── utils │ │ ├── functions.py │ │ └── timer.py │ ├── yolact.py │ ├── yolact.py.orig │ └── yolact_resnet50_54_800000.pth ├── yolo-v1-tiny-tf │ └── yolo-v1-tiny.pb ├── yolo-v2-tf │ └── yolo-v2.pb ├── yolo-v2-tiny-tf │ ├── keras-YOLOv3-model-set │ │ ├── cfg │ │ │ └── yolov2-tiny.cfg │ │ ├── common │ │ │ ├── utils.py │ │ │ └── utils.py.orig │ │ └── tools │ │ └── model_converter │ │ ├── convert.py │ │ ├── convert.py.orig │ │ ├── keras_to_tensorflow.py │ │ └── keras_to_tensorflow.py.orig │ └── yolov2-tiny.weights ├── yolo-v3-tf │ ├── yolo-v3.json │ └── yolo-v3.pb ├── yolo-v3-tiny-tf │ └── yolo-v3-tiny-tf │ ├── README.txt │ ├── yolo-v3-tiny-tf.json │ └── yolo-v3-tiny-tf.pb └── yolo-v4-tf ├── keras-YOLOv3-model-set │ ├── cfg │ │ └── yolov4.cfg │ ├── common │ │ ├── utils.py │ │ └── utils.py.orig │ ├── tools │ │ └── model_converter │ │ ├── convert.py │ │ ├── keras_to_tensorflow.py │ │ └── keras_to_tensorflow.py.orig │ └── yolo4 │ └── models │ ├── layers.py │ └── layers.py.orig └── yolov4.weights 318 directories, 856 files
PukiWiki 1.5.2 © 2001-2019 PukiWiki Development Team. Powered by PHP 7.4.3-4ubuntu2.19. HTML convert time: 0.228 sec.