Computer Vision

Python, Computer Vision, AI, Transhumanism 関連

衛星でみる 台風19号 ビフォアー・アフター

今回は台風19号のビフォアアフターを確認してみようと、Sentinel-2を検索。
使用するサイトはいつものSentinel-hub EO-Browser

f:id:tsubute:20191016002912j:plainf:id:tsubute:20191016002827j:plain

 

栃木県佐野市 秋山川の堤防が決壊

https://www3.nhk.or.jp/news/html/20191013/k10012128451000.html

 

ビフォアー画像として、取得できた日付は10/10、アフター画像は、10/15のもの。15日は各地どこも曇が覆っており、ほとんど識別が不可だった。
そんな中、なんとかみつけたのが、上記の秋山川の堤防

 写真右側、北側が決壊した堤防の部分、ただ、ここも雲でぼやけてしまっているようで、明確には判別できなかった。

もし次回の撮影分がでうまく撮れていたら、追加で紹介してみようと思う。

 

衛星画像というのは、今回のように、雲に邪魔されて活用できないケースが多々ある。
そういう点でいうと、被災後には、すぐに、ドローンを飛ばして、空撮画像を活用すると、救助活動に役立つと思う。
その上で、高解像度の空撮画像を、一般公開するようにしたら、今後の災害対策としても有用なデータになるのにと思う。

 

衛星画像の活用方法として、保険会社が、被災判定などの資料として活用するというものが、テレビでとりあげられていたが、 そういう使い方もあると思う。

 

前回の投稿では台風15号をとりあげましたが、私の場合、募金先を、伊豆大島関連のクラウドファンディングにしました。
今回の台風19号でも、すでに募金の受付は立ち上がっている。関心がある方は是非支援を。

気候変動の影響だと思うが、今後も台風関連の災害は発生するだろう。
ひきつづき、テクノロジーを活用し、被害を減らす方法を考えてみたいと思う。

 

今回の被害を振り返る
まだ被災が進行する中、振り返るというのは、語弊があるかもしれないが、いくつか思った事をまとめてみる。

・防災格差
人口が多い地域のほうが、少ない地域より災害対策に予算が使われているのを実感する。
災害の最小化のためには、優先順位を冷静にとらえなければならないと思うが、住民はその地域や、 建物のプライオリティを一考した上で、住居を選択したほうが良いと思う。

・マンション
建物の耐久性自体は、マンションのほうが比較的高いと思う。
ただ、マンションは災害に強いのかと言うとそんなことはない。
むしろ高層ビルというのは、エレベーターのように、電気がなければ、家から出るのにも困難、そして、水トイレも断水となる。

その観点でいうと、都心のマンションはもっと、電源喪失に備えるべきだと思うし、電源を喪失した場合は、復旧するまでは別の建物に住む事を 想定しておいたほうがよい。

 

・治水

今回活躍が注目された、八ッ場ダム首都圏外郭放水路

何事もなければ、ともすれば無駄とも言われる災害対策。

日頃の備えがいざという時役にたつ。

台風15号(ブルーシート編)

1前回に続き、衛星画像により、台風15号(2019)の被害を確認する。

今回の衛星は、 Sentinel-2 、更新頻度は低いが、入手しやすい画像の中では、高精度な画像が入手できる。

https://apps.sentinel-hub.com/eo-browser/

 

1枚目は2019/9/10 、日付からすると台風通過直後だと思う。

場所は鋸南町。中央左の森は、大黒山展望台だそうである。

f:id:tsubute:20190921205143j:plain

続いて2枚目、2019/9/15 青い部分がいくつか見える

精度は確認できてないが、これは屋根などに掛けられたブルーシートの可能性がある。

f:id:tsubute:20190921205023j:plain

前述のサイトでは、RGBをバンド別に割り当てる機能があり、上記2つの画像は、青が見やすいバンド(周波数)を目立たせている。

 

結構な数の建物がブルーになっている。

中には、屋根がもともと青いものもあるのかもしれないと、Google Earthで見てみるとたしかに青い屋根の建物もありそうだ。ただ、 9/9の画像との比較で見る限り、多くがブルーシートと考える。

 

また、個別には確認できていないが、報道の空撮映像などから、いくつかの建物は実際にブルーシートのかかった建物であることまで確認できた。

 

 

以前、地震の後の仙台を訪れた事があるが、同様にブルーシートが掛けられた屋根を多く見かけた。なかなか難しいのかもしれないが、これをみるとやはり屋根瓦は軽いものや丈夫なものに換えていったほうがよいように思う。

 

差分画像を作ったり、QGISを活用してみようと思ったが、あまり良い品質のデータが作れなかったので、今回はここまで。

ただ、このぐらいの色が取れていれば、本当はグリッドで色分ができると思う。

 

 

まだ、停電が解消されていない地域もありますが、通常営業の観光スポットも多くあるので、皆さま連休には、千葉でレジャーを楽しんではどうでしょうか。

 

人工衛星で見る停電(台風15号)

台風15号により千葉県では、停電が発生し、地域によっては現在も復旧作業が続けられている。

伊豆大島も含め、復旧にご尽力されている方々の安全と、被害にあわれた方々が本来の生活を一日も早く取り戻せることを心より願います。

 

電力と情報通信

電力の重要性は、情報通信も含め以前にも増して高まっている。

その点、今回の停電は、他人事では無いと思うのだが、県外からのボランティアや支援は、まだ受け入れ準備が整ってないようである。

 

今回、初動で出遅れた報道はやや信用に欠けるし、Twitterなどのソーシャル情報も、通信が復旧していない以上、断片的で不明瞭だったり、2次情報で正確性に欠けていたり、いまいちよくわからない。
ということで、宇宙から見たらどうだろうと、人工衛星から様子を見てみることに。

2019/9/7

f:id:tsubute:20190915154425p:plain

 

2019/9/9

f:id:tsubute:20190915154432p:plain

 

それぞれ画像は NASA Worldview からのものである。

詳しくは把握できてないが、地上の明かりを撮影したか、センサーで可視化した画像だと思う。明かりのある部分が白くなっている。
ただ、雲の影響で暗くなったり、雲の関係で見にくかったりするので、比較画像は9/7と9/9とで比較した。

これをみると、 9/7では明るかった部分のうち、9/9では暗くなっている部分があるのを、見てとれる。

おそらくこの辺りが、停電で多くの人が影響を受けたエリアなのかと思う。

 

衛星画像に限定せずとも、ドローン空撮による上空からの写真でも良いのだが、今後に期待するところは、災害発生後、迅速に状況が把握できるようになり、復旧に必要な物資や条件なども把握できるようになれば良いと思う。

 

台風15号 衛星画像で停電地域を見る

https://news.yahoo.co.jp/byline/akiyamaayano/20190911-00142246/

 
停電がもたらすもの

近代の社会は、電気により、大幅にエンパワーメントされて、高度化されてきた。
しかし、一度電源を喪失すると、その文明は脆(もろ)くも機能不全に陥る。

だからといって、私は、昔ながらの生活をしましょうねという気はさらさらない。

我々は競争原理の中で、テクノロジーによりエンパワーメントされたライバル・敵との戦いの最中(さなか)なのだから。


もし東京でブラックアウトが一ヶ月に渡っておきたらどうなるだろうか。
六本木ヒルズをはじめ、超高層ビルなら、自前の発電施設を備えていて、まあ良いとして、 短時間の予備電源しかもたない、ビルの場合は、企業はエレベーターが使えず、営業できなくなるだろう。


そもそもコンピューターが利用できない会社で、進められる業務が、どれほどのもんなのかは想像すらできない。

さらに、高層マンションで水道・エレベータが使えないとなると、住民は、生活が著しく不便になり、 避難を余儀なくされるだろう。物流がストップし、ペットの餌が十分に確保でき無い場合は、ペットが放たれ、街を徘徊することになるかもしれない。

ゴミは収集されず、異臭が漂い、周囲の環境も様変わりする。

さらに都内では、私も含めマイカーを持たない人も多いと思う。
バス電車が動けば良いが、それが使えないとなると、まさに難民と化すだろう。

現状で思うのは、ある一定以上の階を有する建物には、発電機、蓄電器、貯水設備を設けることと、 住民には、ガスコンロ、蓄電、小型発電機、蓄電器、などを含め、備蓄を促す事が重要だと思う。
電柱の地中化は、反対もあり、なかなか進んで無いと思うが、これもやはりすすめて欲しい防災対策のひとつである。

あとは、これだけ住居が密集しているのに、停電になると、通信も寸断されるのは馬鹿げている。 独立した最低限の電力が確保できれば、インターネットに接続できるような、アドホックな通信インフラを解放して欲しい。

なにはともあれ、防災で大事なのは、事前の準備と、危険が差し迫った時の適切な避難。
被害にあった場合は、助け合いと、自治による初動により、防災は大きく変わってくると思う。

Runway MLを使ってみる

Runway ML

https://runwayml.com/

Runway MLは、インストールしてアカウント登録するだけで、色々な機械学習系の画像変換が試せる、アプリケーション。


現在機械学習の世界は、多数の無料プログラムが公開されている。しかし、環境構築して、インストールして使うとなると、なかなか厄介な作業である。
そんな中、こんな風に手軽に試せるのは非常にありがたい。

 

ということで、実際にためしてみたので、いくつかを紹介。

YOLACT

セグメント、タグ付けをやってくれるプログラムのようだ。

ペンギンがちゃんと鳥として検出されている。ただし、右側はヒトと検出されている。

AttnGAN

テキストから画像を生成する。

上記は"Three Sleep Sheep"の結果。

なんだかわからないが、なんとなく雰囲気はある。いずれは文章だけで、リアルな絵がかけるようになるかもしれない。

Cycle GAN : Horse2Zebra

馬をシマウマに変換する、cycleGAN。
人間も一緒にシマシマしている。比較的なんでもシマシマにしてくれるので、先ほどのペンギンも試してみると、シマシマになった。

 

DenseDepth

これは、遠近をグレースケールで表現するプログラムのようだ。

物体検出において、遠近情報を条件で使用したり、背景画像を消すとか、そいう点で深度の検出というのは意味があったりする。

 

他にも色々なモデルを試せるので、プログラミング経験や、機械学習系の環境構築の知識がない人でも、Runway MLを使って、様々な画像変換や、生成を試し、活用してみてはどうだろうか。

 

 

今回使用した画像について

acworksさんによる写真ACからの写真 : 室内 / 乗馬

久遠さんによる写真ACからの写真: ペンギン

 

GauGAN(2回目)

前回と同じGauGANを改めて使ってみる。

http://nvidia-research-mingyuliu.com/gaugan

f:id:tsubute:20190815170301p:plain

Upload Landscpeで、鉄塔のような写真を入れてみた。

建物っぽい画像が出現したが、これは学習しているデーターから出現したものなのかもしれない。どことなく右の建物は燃えている感じもする。

タイトルとか入れれば、なにかのジャケット写真に使えそうなもんである。

 

次は、単に生成するだけなのもなんなので、出現した画像をベースにフォトショップでやや加工してみる。

f:id:tsubute:20190815170140p:plain

連想される部分を強調したり、少しエフェクトを使ったり、文字を入れてみるなどで、よりそれっぽくなったと個人的には思う。

 

ちなみにこれは、前回使ったSegmentation Mapを利用しているので、

前回の構図に似たものになっている。

 

とくに何かしたわけではないが、なかなかの力作だと思う。

GauGAN を使ってみる

Nvidea のGauGAN(Beta)が面白そうだったので使ってみる。

ラベリング付きのpix2pixのようだ。


以前から、輪郭や、周りの要素から類推して画像の損失部分を埋めるというというものがあるが、 その場合は、たまたま輪郭にひきずられて、とんでもないものが出現したりしてしまう場合がそれなりにあった。

 

それを、ラベリングすることで、指定の位置に、意味が同じようなテクスチャを出現させることができる。

 

これで絵を書くとしたら、ラベリングされた要素の配置を行えば、なんとなくリアルな絵が作れてしまう。

 

そういう意味でいうと、アイデアがあれば、だれでも手軽に創作に参加できるようになりつつあるんだと思う。


参考:
[最新論文]NVIDIAさんがまた本気を出してしまった。 - Qiita

ビルから廃墟を生成したい

CycleGAN and pix2pix in PyTorch

https://github.com/junyanz/pytorch-CycleGAN-and-pix2pix

 

プログラムは前回と同じ。今回は、ビルを廃墟化できるか試してみた。

 

廃墟画像は、軍艦島や、アンコールワットの遺跡など、20枚弱。

建物の画像はimagenetから取得。

 

結論からすると今回はあまりうまくいかなかった。

そこそこうまくいった感じの画像はこちら。左が元画像、右が生成画像。

 f:id:tsubute:20190502102023p:plainf:id:tsubute:20190502102020p:plain

元画像が、やや古そうな様式の建物、そして建物にある程度接近している写真だと少し馴染むようだ。

 

f:id:tsubute:20190502102017p:plainf:id:tsubute:20190502102015p:plain

失敗例。遠景は無理があった。

加えて、空との違いが不明瞭な画像という事もあり、とりあえず全体が緑っぽくなっただけでした。

 

逆に廃墟を入れたらどうか試してみた。

f:id:tsubute:20190502111317p:plain

左が元画像、右は生成画像。緑が増えている。

廃墟にみどりが増えたよ!やったー。

 

f:id:tsubute:20190502102645p:plain

今回廃墟データとして使用した画像の一つ。

学習データと、元画像。構成や構図はある程度近い方がうまくいきそうだ。

 

ということで、廃墟を生成したい場合は、廃墟画像と同じぐらいのスケールの画像を用意する事。

生成元となる画像は、同じぐらいのスケール感で、古そうな建物が良い。

さらに、廃墟画像にある程度似た構造の建物を使うと、古い建物の緑化事業が捗りそうという話でした。