2020年4月 技術メモ
なるほど。自分が買おうとしている色温度4000KのLEDが12Wで、5000KのLEDが15Wなので、これは明るさじゃなくてそのまま消費電力を表しているということで素直に解釈して良さそうということがわかりました。ありがとうございます!
— Teppei Kurita (@kuritateppei) 2020年4月30日
ありがとうございます。基本的に、スペックに書いてあるワットは消費電力で、白熱電球相当のものはそう記載してあるということですね。
— Teppei Kurita (@kuritateppei) 2020年4月30日
紛らわしいのが、代わりに用いられるようになったルーメン(明るさ)も、SI単位が同じW(ワット)なところですね。
正直、LED照明とかのスペックでよくある黒体放射色温度と放射束(ルーメン)とW(ワット)の関係がよく分かっていない。ルーメンの単位はワットだけど、消費電力もワットでこれらは別物?難しい。
— Teppei Kurita (@kuritateppei) 2020年4月30日
□0.9umを超えるセンサがバンバン出てきてもはや回折限界がなんだというツッコミはヤボなんだろうな。
— Teppei Kurita (@kuritateppei) 2020年4月29日
os.makedirsがos.mkdirの上位互換なのでもう思考停止して使おう、時間無駄にした。
— Teppei Kurita (@kuritateppei) 2020年4月28日
Pythonでディレクトリ(フォルダ)を作成するmkdir, makedirs | https://t.co/kDwgGU7EQl https://t.co/vf5lFKCEdv
AobaZeroの棋譜が簡単にColabで作れるのか、知らんかった。https://t.co/nxq9OicmGn
— Teppei Kurita (@kuritateppei) 2020年4月26日
昨日これ笑ってたんですけど、自分でAdversarial loss系のネットワーク図を描く時に滅茶滅茶参考になりますねこれ。大体のパターン網羅してるし。 https://t.co/iiTKyJjSfU
— Teppei Kurita (@kuritateppei) 2020年4月26日
Visual Hullについて簡潔にまとまってる。https://t.co/lWLlVWpEGY
— Teppei Kurita (@kuritateppei) 2020年4月26日
物体のIOR(屈折率)が一番詳しくまとめられているサイト。https://t.co/KM4wavpxtl
— Teppei Kurita (@kuritateppei) 2020年4月26日
網羅性は凄いが測定に科学的な厳密さは保証されていないのでサイエンス目的に使う場合は注意とのこと。
なるほど
— Teppei Kurita (@kuritateppei) 2020年4月25日
head コマンド(Broken pipe エラー) https://t.co/t1ZTOEek1i #Qiita
Visdomイマイチ使いこなせてない、今日色々遊ぶ
— Teppei Kurita (@kuritateppei) 2020年4月25日
Pytorchのモデル構築、評価を補助するVisdomとtorchsummary https://t.co/kRri5nsfg8 #Qiita
Colab Proでも流石に制限かかりました。TeslaP100が蹴られるとかじゃなくて「使用料の上限に達したため」GPUがそもそも使えなくなりました。
— Teppei Kurita (@kuritateppei) 2020年4月21日
今まで1か月分の蓄積で引っ掛かったのか、直近の派手な使い方で引っ掛かったのかはわかりません。公式の言うとおりProでも無制限ではないことがわかりました。 https://t.co/axUwLLtkih
Light Transport Matrixについてこんなにわかりやすい解説を始めて見た。
— Teppei Kurita (@kuritateppei) 2020年4月20日
何でもみえるロボットの“目”の実現を目指して―LTMスパース推定による三次元計測― https://t.co/aXkvi6ORYt
キヤノンとEPFLが2.2umのSPAD。
— Teppei Kurita (@kuritateppei) 2020年4月19日
Image Sensors World: Canon & EPFL Report Performance of the World's Sma... https://t.co/8pDgoEDj4n
報告ですがColab Pro、1か月間ほぼ24時間回し続けたけどTesla P100蹴られませんでした。今のところコスパ最強。24時間で自動的にセッションは切れるのがめんどくさいけど、学習をresumeできる仕組みにしとけばさほど支障はないですね。 pic.twitter.com/5MhddDqQzH
— Teppei Kurita (@kuritateppei) 2020年4月18日
モンテカルロ法を復習する際に参考になる。
— Teppei Kurita (@kuritateppei) 2020年4月16日
レイトレーシング入門3「モンテカルロレイトレーシング」 https://t.co/a5igk7fXWT #Qiita
モンテカルロ法って原子爆弾を作っている時に中性子の動きの様子を解析するために生まれたのか
— Teppei Kurita (@kuritateppei) 2020年4月16日
re.match()は文字列先頭のみ、https://t.co/6XmnfeepSK()は文字列全体走査。https://t.co/VXauU2e60O
— Teppei Kurita (@kuritateppei) 2020年4月16日
光学とレンダラーとの関係を体系的にまとめようと思ったのだけど、難しそうだ。物理屋さんのツッコミを待とう…。干渉や回折再現してるレンダラーはボチボチ出てきていて、偏光はMitsuba2くらいかな…。蛍光ってあるのかしら…。 pic.twitter.com/aiwyuwHNPX
— Teppei Kurita (@kuritateppei) 2020年4月16日
少し古いけどLight Transportの基礎やIrradiance Cacheなどのテクニックがわかりやすくまとまっていて勉強になった。https://t.co/WfLHHtkzNE
— Teppei Kurita (@kuritateppei) 2020年4月16日
(Prof. JaroszのD論)
なるほど、虹彩の色の違いで取り込む光量が減ろうが増えようが見え方に違いはないけど、眼球内の色素が薄い(白人)と乱反射しやすいからまぶしくなっちゃうのか。
— Teppei Kurita (@kuritateppei) 2020年4月15日
となると記事の説明はうーんという感じになりますが…。https://t.co/FISEVFhSVs
人間の目は明るさに順応すると教えられてきたので、瞳の色で見え方が変わる理屈がいまいちわからん
— Teppei Kurita (@kuritateppei) 2020年4月15日
タイトルをイキってしまった。ガチ勢に見つからないように…。
— Teppei Kurita (@kuritateppei) 2020年4月14日
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)https://t.co/pGYzq2SBYb via @SlideShare
Spatial Transformer Networks (STN)を使ったFew-Shot Learningのための新しいData Augmentationの提案。ピンホールカメラモデルにおける射影変換から着想を得て、様々な視点から物体を見るようにAugmentation用のアフィン変換のパラメータをEnd2Endで敵対的に学習する。https://t.co/XtI8dbwNLm pic.twitter.com/yHSpT48muD
— Teppei Kurita (@kuritateppei) 2020年4月15日
noise2noiseで自分のノイズデータセット扱えるようにしたのは以下にあります(yu4uさんのfork)。https://t.co/sNF0yhonYd
— Teppei Kurita (@kuritateppei) 2020年4月13日
同じシーンで違うノイズのデータペアを500シーンほど用意すればOK。
noise2noise、個人的にはNVIDIAのこのtensoflowサンプルよりもhttps://t.co/0RCVT5qkc2@yu4uさんのKerasサンプルの方がわかりやすかった。感謝です…https://t.co/0CO01A5BNM
— Teppei Kurita (@kuritateppei) 2020年4月11日
tf2から基本算術演算(logなど)が、tf直下からtf.math下になったとふむふむ
— Teppei Kurita (@kuritateppei) 2020年4月11日
tf2から
— Teppei Kurita (@kuritateppei) 2020年4月11日
tf.python_io
↓
tf.compat.v1.python_io
もしくはhttps://t.co/UZSmCxjZEBhttps://t.co/L26Dk53eqf
こっちの方がちゃんと解説されてた。https://t.co/6d7Kaxg9bf
— Teppei Kurita (@kuritateppei) 2020年4月11日
なんか今年のCVPR採択論文見てると、特定タスクのPriorをまず求めてから、それを利用してNNを強化するって流れが多い気がする。
— Teppei Kurita (@kuritateppei) 2020年4月11日
Colab、bashのノリで使ってたらコマンド回りの変数展開のところでハマった。${hoge}じゃなくて{hoge}推奨。ipythonとも少し挙動が違うし…。 pic.twitter.com/nrrH26UF4G
— Teppei Kurita (@kuritateppei) 2020年4月11日
最内レイヤーはDropoutなしだった。 pic.twitter.com/zEFSeBNBdF
— Teppei Kurita (@kuritateppei) 2020年4月9日
pix2pixで使われてるUNetコード見て描きだした。最外・最内レイヤーはスキップなし。ほんと時間の無駄だと思うけど、描かないとちゃんと理解できない…。 pic.twitter.com/M2BfOS1tMD
— Teppei Kurita (@kuritateppei) 2020年4月9日
functools.partial()なかなか有効活用できないな、入り組んできたとき結構便利そうなのだけど。
— Teppei Kurita (@kuritateppei) 2020年4月9日
Python: functools.partial() で関数やメソッドを部分適用する - CUBE SUGAR CONTAINER https://t.co/TFS35bHvOc
ていうかpix2pix、instance norm使ってるって論文中では書かれてたのにコードのデフォルトbatch normじゃん。batch size=1だったとしてもtest時の挙動一緒なんだっけ…?
— Teppei Kurita (@kuritateppei) 2020年4月9日
ようやく偏光BRDFについてまとめ終わった…。
— Teppei Kurita (@kuritateppei) 2020年4月9日
BRDFと偏光BRDF(pBRDF)の違い https://t.co/TjecgRYGpj #Qiita
torch.reshapeはメモリ上で要素順に並んでいる場合はtorch.viewと同一の挙動になるのに対し、メモリ上で要素順に並んでいない場合は物理的なコピーを作る。
— Teppei Kurita (@kuritateppei) 2020年4月8日
https://t.co/jdpkeo7A3A #Qiita
Deep Image Priorを使って行列分解やってみたんだけど凄いな。まったく何の情報もなさそうな画像から、生成元のイラストっぽい情報が出てきた。自然画像じゃないイラスト(ウイルスみたいなのとか)が生成されてるのはヤバい、神の領域に感じる
— Teppei Kurita (@kuritateppei) 2020年4月6日
下記の論文を参考にした。https://t.co/nTyzM2V6mc pic.twitter.com/UGCpnEdg3U
自分、完全に理解したつもりになってても雰囲気で使ってるものが多すぎる。フレネルも本当はマクスウェル方程式からちゃんと理解しないといけないんですが全然わからん。少しずつ理解しよう…。https://t.co/PtLlssKICC
— Teppei Kurita (@kuritateppei) 2020年4月6日
BRDFのマイクロファセット項D(H)は変数がハーフベクトルHになっているが、直観的な理解は「指定したハーフベクトルと一致する法線を持っているマイクロファセットの数(分布)を返す」で良いのかな。0のとき最大値になるのも、表面法線と一致するものの数がそりゃ一番多いでしょという感じか。今さら。
— Teppei Kurita (@kuritateppei) 2020年4月6日
Colabまだpython3.6.9か。セイウチちゃん(代入演算子)使おうとして怒られた。まあ1行増えるだけなんだけど。
— Teppei Kurita (@kuritateppei) 2020年4月5日
Colabも同様、ありがたい…。(ちゃんとargparseのリファレンス見たらparser.parse_argsの仕様書いてあったけど、早く答えにたどり着けるのは良い時代)
— Teppei Kurita (@kuritateppei) 2020年4月5日
Jupyter lab / notebookで argparseそのままで実行する方法 https://t.co/TouO5WQkU4 #Qiita
画像要素アクセスで2、3重ループのときitertools.product()が便利だけど、ネストしたforループより遅いのか。わずかな差だから基本itertoolsで良いけど、処理量が多かったり実用段階では意識した方がよさそう。https://t.co/Jzrt5zciAr
— Teppei Kurita (@kuritateppei) 2020年4月5日
scipy 1.3ではscipy.misc.imresizeは削除されてるのでPIL.Imageのresizeを使う。
— Teppei Kurita (@kuritateppei) 2020年4月5日
scipy.misc.imresizeはどこへ行った? - walkingmask’s development log https://t.co/KEEFeUW5YO
Mitsuba2の偏光レンダリングについて書きました。ひと段落。pBRDFについては別途まとめてます。
— Teppei Kurita (@kuritateppei) 2020年4月5日
最新物理ベースレンダラー Mitsuba2を触ってみる (4) 偏光レンダリング編 https://t.co/hMktNiN7MC #Qiita
ハーフベクトル入れると途端にわちゃわちゃしてくるんだよな pic.twitter.com/L8VS4VemZg
— Teppei Kurita (@kuritateppei) 2020年4月4日
改めて図を描いててフレネルを雰囲気で使っていたのがわかった、p偏光とs偏光すら怪しかった。光難しい…。何年やってるんだ自分。 pic.twitter.com/cPHbW5p6IN
— Teppei Kurita (@kuritateppei) 2020年4月4日
久しぶりにComputational Mirrorの論文読んでるんだけど、行列分解っていう一般的な問題をDeep Image Priorでやった結果が衝撃的すぎるな。こういう成果出したい…無理だけど。https://t.co/nTyzM2V6mc pic.twitter.com/jNapxhynjQ
— Teppei Kurita (@kuritateppei) 2020年4月3日
素人が硬さの計測技術について調べたのを闇に葬るのもあれなんで公開します。
— Teppei Kurita (@kuritateppei) 2020年4月3日
硬さ計測について https://t.co/dX4BAhtLM2 via @SlideShare
実数の集合Rなど黒板太字(白抜き文字)をLatexで出力するには\mathbb{}。https://t.co/vjkDgbYYoO
— Teppei Kurita (@kuritateppei) 2020年4月3日
今Kaggleのコロナ症例数・死亡数予想のために使用している特徴のトレンドは、
— Teppei Kurita (@kuritateppei) 2020年4月2日
過去症例数、過去死亡者数、地域制限、地域検疫、開校・休校日、人口、密度、病床数、とかか。参考になるな。https://t.co/tnzhzsQWuZ
どうせ自動で最適化されるからGeneratorの後にスカラー値乗算しても問題ないやろ!って思ってたらGeneratorの最後にtanhで正規化されてるの忘れてて、後で0.1とか乗算すると、Gでもれなく飽和するので無事死んだ。
— Teppei Kurita (@kuritateppei) 2020年4月1日
pix2pixにも使われてる正規化のinstance normalization。特にこれ単体では学会出してなくてarxivだけか。ページ数少なくて読みやすい。https://t.co/t8Pf0nEyO6
— Teppei Kurita (@kuritateppei) 2020年4月1日
pytorchのtensor.viewって、メモリ内のレイアウトは変更されないのか、知らなかったらハマりそう pic.twitter.com/sbrKpnDapH
— Teppei Kurita (@kuritateppei) 2020年4月1日