【講義note Day2】GLOBIS リーダーシップと人材マネジメント基礎

「自分は部下にリーダーシップを正しく発揮できているか?」、それを把握するにはとにかく部下を観察すること。これは上司役割の1つでもある。あわせて(良いや悪いというよりも)ちゃんと見ているというメッセージを伝えると良い。

部下は、言葉と行動にギャップがあることが多い。
そこは厳しく指摘しないといけない。そのためにも行動をちゃんと見てあげる。

評価面談の目的は部下に行動を変えてもらうこと。
期待する行動(組織貢献)をしてもらうため。ポイントは取ってほしい行動や掲げてほしい目標を『相手に言わせる』ことが重要相手の言葉として言わせることで当事者意識、コミットメントが強まる。

参照点
・他社との比較
・過去の自分との比較
「プロスペクト理論」

オープンブックマネジメント
会社の財務諸表を公開し、社員に当事者意識を持たせる

ワーキングアイデンティティ
・行動しながら学習してキャリアを作りこんでいく
・可能性を広げるために知らない正解に飛び込む
・偶発性を受け入れる

劇場版 ヴァイオレット・エヴァーガーデン(★ネタバレあり★)

2020.09.18、ついに京都アニメーションの作品「ヴァイオレット・エヴァーガーデン」が公開されました。

とりあえずMOVIX京都で販売してたコンボセットの写真をどうぞ

食べづらいわ!!

や、きれいなイラストですし、ヴァイオレットさん素敵なんだけど、そんな切なそうでどこか憂き表情で見られるとポップコーン食べにくくないですか!?


ここからネタバレ

なかなかモヤモヤした箇所があったのでメモ。

少佐→ヴァイオレットへの「愛してる」は、親から子への愛情的なニュアンスだったのか?または、男性から女性へのニュアンスだったのか!?

アニメ本作では前者だと思っていたし、劇場版ではヴァイオレットから少佐へ「愛してるを伝えたい」と言ってるシーンもありましたが、それも子から親への想いに似た感情かと推測してました。

しかし、エンディング後に登場した、指切りしている2人のワンショットから察するに、どこかから感情は男女の愛になっていたのか!?

というのが私の疑問。


兄から「自由になれ」とも言われ、島で新たな居場所も見つけ、少佐は1度自由になりました。

また、自動手記人形の仕事など新しい生活に馴染んで、アニメ本編の最終回では「もう命令はいりません」とも宣言したヴァイオレットさんも、自由になりつつあると言えます。劇場版でも、少佐に会えるまであと少しというタイミングで、指切りして約束したからと仕事に戻ろうとするシーンもありました。

そんな、1度は自由になった2人が、再びお互いを必要として選んだ。戦場にいた頃とは全く異なるマインドで一緒になることを選んだ。この流れや描写は見事だと思いましたし、美しい関係性になったんだなぁと感動ものでした。

Pytorch で Iterable.next() すると停止する

原因: num_workersの設定が正しくない

対策:num_workers=0 にする

こんな感じ

dataloader = DataLoader(trainset, batch_size=5, shuffle=True, num_workers=0)

 

以下:公式ドキュメントより引用

num_workers (python:intoptional) – how many subprocesses to use for data loading. 0 means that the data will be loaded in the main process. (default: 0)

つまり、下手にサブプロセスで実行しようとしてミスると停止する

 

faster-RCNNなどDetectionモデルを動作させるときに引っかかる点

 

詰むパターン

  • ValueError: bg_num_rois = 0 and fg_num_rois = 0, this should not happen!
  • lossがnanになる

 

引っかかる箇所

  • 画素をカウントするとき左上座標を(0,0)とするのか(1,1)とするのかが異なり、データ前処理を誤ってアノテーション座標に(-1,-1)が含まれてしまう。
  • コード修正しても『data/cache/***_roidb.pkl』を削除しないとキャッシュを読み込んでエラーが出続ける
  • ANCHOR_SCALEが小さすぎるとLOSSが果てしないことになって「nan」になる

マウスのドラッグが途切れる『チャタリング』の対策

結論:電池を抜いた状態で左右のクリックをカチカチ、これを20秒ほどする、以上!!

 

解説:「チャタリング」とはマウスの不具合(というより故障)の一種。ドラッグしたつもりがドラッグできていなかったり途中で途切れたりする。主な原因は内部にたまった静電気。上記の方法で静電気を抜いてやるとよい。

 

TASK2VEC: Task Embedding for Meta-Learning

 

TASK2VEC: Task Embedding for Meta-Learning

論文 https://arxiv.org/abs/1902.03545

タスクの類似度評価指標を提案。

ImageNETでpre-trainしたモデルを、タスクにあわせてClassifier部分だけretrainする。

そのあと、どのクラス出力と、どのChannel(Filter)の関係性が大きいのか、フィッシャー情報量を利用して評価する。

イメージとしては、重みWに摂動ΔWを加えたときに、予測出力が大きく変化する(KL距離で評価)ような場合は、クラス予測によって重要な特徴量であると言える。

実験結果では、全く異なるデータセットではあるが、たとえば鳥の種類を識別しようとしているタスク同士がEmbedding後の空間で近傍に射影されるなどしている。

(なお、これだったら特定タスクを解くときにどの特徴量がActiveになっているか?を評価するだけでタスク空間を得られる気がするが、どうやらそれでは上手くいかなかった様子。識別に用いない特徴量が関係なくActiveになることがあるからかな?)

USPS download link has changed

if you have “wget can’t download – 404 error” when downloading USPS dataset, please update url.

OLD

“https://raw.githubusercontent.com/mingyuliutw/CoGAN_PyTorch/master/data/uspssample/usps_28x28.pkl”


New

“https://raw.githubusercontent.com/mingyuliutw/CoGAN/master/cogan_pytorch/data/uspssample/usps_28x28.pkl”

 

 

Pytorch “Trying to backward through the graph a second time, but the buffers have already been freed. Specify retain_graph=True when calling backward the first time.”

 

エラーメッセージ


対策


解説

x=layer[i](x) のように計算処理を進めていってLOSS計算したあとにbackword()を実行するとxの算出結果がクリアされてしまう。

これは悪意があるわけではなくメモリ節約するための仕様。

しかし、Multi Task Learning のときによく発生するのだが、後半部分でLayerが分岐してOutputが2つ以上になったとき、1つ目のタスクでLOSS算出してbackword()、そして2つ目のタスクでLOSS算出してbackword()しようとするとxの算出結果がクリアされているのでエラーとなる。

対策は「まだ学習に用いるので計算結果をクリアしないでね」という目印としてloss.backword(retain_graph=True)とすること。

 

by ロードローラー