Jupyterでpickleを読み込み過ぎてメモリエラー

pickleは便利ですが、ついつい巨大ファイルを読み込みすぎるとメモリエラーが発生します。

Jupyterでは画面上では [*] のままですが、実はメモリ問題で停止しているという場面が珍しくありません。

対策は多々有りますが、簡単にできるのは次の2つが挙げられます。

①変数名を使いまわして上書きするようにする

②dtype=np.float32 で読み込む

試してみてください。

 

 

ImportError: libcublas.so.9.0: cannot open shared object file: No such file or directory

 

TensorFlowの1.5以降などを使うときに、CUDAのバージョンが9.0でないと次のようなエラーが出ます

 

私はCUDA6.0だったので、おとなしくTensorFlowを1.4に戻して解決させました