Jupyterでpickleを読み込み過ぎてメモリエラー

pickleは便利ですが、ついつい巨大ファイルを読み込みすぎるとメモリエラーが発生します。

Jupyterでは画面上では [*] のままですが、実はメモリ問題で停止しているという場面が珍しくありません。

対策は多々有りますが、簡単にできるのは次の2つが挙げられます。

①変数名を使いまわして上書きするようにする

②dtype=np.float32 で読み込む

試してみてください。

 

 

ImportError: libcublas.so.9.0: cannot open shared object file: No such file or directory

 

TensorFlowの1.5以降などを使うときに、CUDAのバージョンが9.0でないと次のようなエラーが出ます

 

私はCUDA6.0だったので、おとなしくTensorFlowを1.4に戻して解決させました

Python2で生成した.pklをPython3で読み込む時のエラー ’ascii’ codec can’t decode byte 0x9b

python2とpython3ではちょいちょい互換性のない場面がります

PKLファイルの生成と読込もその1つ

入手したPKLファイルを読み込むとき、

python2ではうまくいっても、python3では次のエラーが出ることが有ります

この場合は次のようにすればOK