diff --git a/README.md b/README.md index 7a2e183..794c630 100644 --- a/README.md +++ b/README.md @@ -1,5 +1,9 @@ +
+ ![logo](https://github.com/LBJ-code/Imgs_for_readme/raw/master/logo.JPG) +
+ SC-SfMLearner_for_NLab =============== @@ -19,8 +23,12 @@ >Kutsev Bengisu Ozyoruk and Guliz Irem Gokceler and Gulfize Coskun and Kagan Incetan and Yasin Almalioglu and Faisal Mahmood and Eva Curto and Luis Perdigoto and Marina Oliveira and Hasan Sahin and Helder Araujo and Henrique Alexandrino and Nicholas J. Durr and Hunter B. Gilbert and Mehmet Turan > [EndoSLAMとEndo-SfMLearner公式GitHub](https://github.com/CapsuleEndoscope/EndoSLAM) +
+ ![demo](https://github.com/LBJ-code/Imgs_for_readme/raw/master/demo.gif) +
+ ↑gifの容量の関係で画質は粗いですが実際はもっと高精度なdepth推定が期待されます. このコードは色々なコードの複合で成り立っているので非商用利用の用途での利用のみ許可します. @@ -108,9 +116,12 @@ プログラムが実行されると以下のようなGUIが起動します. - + +
+ ![make_dataset's gui](https://github.com/LBJ-code/Imgs_for_readme/raw/master/cammat_gui.JPG) +
ここにデータセットとして使うカメラの内部パラメータを入力します.(カメラの内部パラメータ,外部パラメータに関しては[https://jp.mathworks.com/help/vision/ug/camera-calibration.html](https://jp.mathworks.com/help/vision/ug/camera-calibration.html)などを参照してください . @@ -179,12 +190,14 @@ すると以下のような画面が表示され,トレーニングの経過が観察できます. +
![tensorboard](https://github.com/LBJ-code/Imgs_for_readme/raw/master/tb.jpg) +
- - + + 学習済みデータを用いた深度・ポーズ推定 =============== @@ -232,7 +245,7 @@ この場合推定結果は保存されず,リアルタイムで表示されます. - + ## 2. ポーズ推定 「input」ディレクトリに動画を入れた後に「pred_disp.py」を実行します.以下に実行例を示します.(画像を推定対象として指定することは出来ません)