Goodreader 4の文字化け

Coreserverにおいている自炊のpdfをGoodreader 4でダウンロードしようとすると、文字化けが起きていた。
Goodreader 4のサーバ設定で、Characterを設定できる欄があったので、そこにDosJapaneseを指定したら
文字化けしなくなった。これはありがたい。


NotePCのダイエット

自分のNotePCがいつの間にか容量が一杯に迫ってきていた。そんなに使っていたわけではないと思っていたが自然とそうなった。おそらくはローカルのストレージにうまく逃がす/バックアップする、クラウドストレージを活用する、iPhoneやiPadでのブラウジングをもっと簡単にすべきなどいくつもの課題がある。それはわかっているんだが、でも何から手をつけてよいかわからなかった。

このため、片っ端から手をつけることをせず、以下のポリシーを立ててダイエットを行うことにした。
・データ散逸を避けるため、バックアップに用いるクラウドは最小限とする。無料だからといって
複数にクラウドへの分散は避ける。
・取り扱うユーザデータを基本的にWorkingとArchiveに分ける。
Archiveは原則Note PC & iPad には置かない.
処理の必要が生じた時には、ArchiveからコピーしてきてWorkingの中で処理する。
・Note PCには基本的にWorkingファイルのみを置く
・Archiveファイルは、local storage & Cloudにする。 Archiveファイルにも、時々参照したいもの(写真やpdf本など)は、NWのアクセシビリティを有したところにおく。–例えば、Dropboxの写真など
・生じるデータはできるだけクロニクルな形にする。ジャンル&クロニクルでよい。この最新をorkingとし、過去をArchiveとして管理する。

まずやったことは、ローカルストレージの整理だ。全く使っていなかったり、二重のバックアップを消去した。次にローカルストレージをはっきりとArchiveとWorkingに分けた。

次に行ったことは、Dropbox型のストレージの整理だ。これらは一見複数個所で同期をとってくれ便利に見えるが、n箇所で同期するということは、n倍のストレージを必要とするということだ。Dropbox以外は全部クリーンアップして一旦ローカルストレージに集め、これをWorking とArchiveに整理した。

この次にDropboxに対しても同様の整理を行った。情報管理の点からDropbox内にはプライベートな情報のみしか置いていないが、これもWorkingとArchiveに分類し、Archiveになったものは、別にDropboxにおいておく必要もないので、homeのArchiveに置く。<以下つづく>


Dropboxのマルチアカウント

これまでDropboxを愛用してきてる。これには固有のe-mail addressが付き、自分はわりとGlobalなアドレスをDropbox用に利用している。ところが別プロジェクトで自分の仕事用のアドレスで共用フォルダを作成されてしまうといままでアクセスできなかった。ググるとここにやりかたが書いてあった。ポイントは、

    同じPC内に別アカウントを作成し、そのアカウントにそれぞれDropboxを個別にインストールすること、かつそのインストール先を、自分の日頃使うメインアカウントからアクセス可能(例えばパブリック)なところに
    設置すること
    メインアカウントから、陽に各アカウントユーザでDropboxをそれぞれ起動して同期が行われるよう、
    C:\Windows\System32\runas.exe /savecred /user:USERNAME C:\Users\USERNAME\AppData\Roaming\Dropbox\bin\Dropbox.exe
    のようなバッチファイルを用意しておくこと

のようだ。一応これで、本来のDropboxに加え、仕事上の共有フォルダなどにもアクセスできるようになった。


Amazon EC2で簡単にWinSCPで接続する

これまでftpをセットアップする方法を調べてきたが、もっと簡単にWinSCPで接続できることがわかった。これを記しておく。
(1)PuttyGenを起動。ファイル->秘密鍵の読み込み、で鍵読み込みモードにする
(2)ここで、生成してあったKeyを入力する。OPENSSHヘッダの付されたPairである必要がある。これはKey genaration時に
 指定したファイル名である。Pairで生成されているcert-XX.pemやpk-XXX.pemではないことに注意。
(3)これでPutty用の鍵が生成されるので、生成した鍵の保存->秘密鍵の保存、を選択し、適当な名前で保存する。
(4)WINSCPを起動、新規でプロファイルを作成。ホストには、動作しているEC2インスタンスのPublic DNS名を入れる。
  ユーザ名は、ec2-user、秘密鍵には先ほど保存した鍵を指定、プロトコルは、SCPとする。
(5)これでログインするとファイルをローカルからサーバに転送可能となる。
(6)httpdはあらかじめセットしておくこと
   sudo yum -y install httpd
sudo /etc/etc/rc.d/init.d/httpd start
(7)コンテンツのホームディレクトリは、デフォルト/var/www/htmlなのでそこに転送。パーミッションには注意。

これでOKだ。


Amazon EC2でftp機能を入れる

EC2でhttpサーバが動かせたとしても、結局コンテンツをuploadできないと意味がない。それでftp機能をどのようにして入れるかを
調べていたところ“Amazon EC2 (Amazon Linux) での vsftpd インストールと設定 “の記事が大変参考になった。

これで基本的には動くのだが、やってみて一点引っかかったところをメモしておく。
1) EC2のDashboardでSecurity Groupsがあり、そこでTCPポート21番ならびに60000-60010を開けるのだが、Addボタンを押しただけではだめで、Apply rule changeボタンを押さなければならなかった。これは失敗。
2) 同じくEC2のDashboardでElastic IPはアサインしておくこと
3) 動作確認のために、WinSCPで接続を試みた。このとき、
 セッションのホスト名には、Public DNSの名前を入れる(e.g., ec2-xx-xx-xx-xx.compute-1.amazonaws.com)
ユーザ名は先ほど作成したユーザ名、パスワードもその時作成したパスワード
 プロトコルはftp, 暗号化なし
 環境パラメータのftpのところで、パッシブモード接続でIPアドレスを強制する、にチェックを入れること。これで接続が可能となった。

当然httpdのデフォルトだとコンテンツは、/var/www/htmlにおく。おかげでやっとEC2上でWebコンテンツが上がった。この週末ぐらいは置いておこう。


Amazon EC2を使う

同じくAmazon EC2を使ってみることにする。この目的としては、もし短期間にアクセスが集中するようなコンテンツを提示せねばならないようなときの準備をしておくためである。それから、たとえば週末のみにオープンさせるようなテンポラリなサーバがあってもよいだろう、との考え方による。

基本はAmazonのサイトの記述による。
0.まずアカウントやKey Pairを用意しておく。
1.Amazon EC2 コンソールダッシュボードの Launch Instanceでインスタンスを起動させる(これまで0であることを確認する)。
2.Create a New Instance ページがでるので、オプションを選ぶ。ここではClassic wizardを選んだ。
3.使用したいOSを選ぶ。
4.Security Groupを選んで、セキュリティオプションを選ぶ。quicklaunch-xは以前quickstartを選んだ時のテンプレート、defaultはデフォルトのようだ。セキュリティとは、外部からどのポート・プロトコルを許すかのセットを選択する。デフォルトは22のSSHのみだが、80のHTTPも入れてWebサーバになるようにする。(ひょっとしてこれはLauch後に設定したかもしれない)
5.設定確認後 LAUNCHする
6.Navigation ペインの Instances をクリックすると、稼働中のインスタンスが表示される。緑色のマークになっていたら、稼働中。
+ここでSecurity Groupを選んでHTTP 80ポートを追加
7.このインスタンスを右クリックしてConnectを選ぶと、組み込まれたJavaのコンソールが開く
8.ログインネームに注意!Amazon Linuxだとec2-user.Ubuntuだとubuntu. 他のAMIの例だとrootのケースがあるらしい。パスワードは公開鍵で自分のPCに書き込まれたファイルを指定する。
 (自分の場合はC:\AWS\ec2service と極力簡単にした)
9.これでLAUNCH SSH CLIENTを押すと、仮想サーバの画面が出てくる。

以下もしもapacheを立ち上げる際の手続き
10. sudo yum -y install httpd
11. /etc/rc.d/init.d/httpd start
12. ブラウザでapacheのデフォルト画面がでているかチェックする(これはうまく行かなかった)。
13. コンテンツは/var/www/html/ 配下に入るので、ここにindex.htmlを入れる 
sudo でviが必要かもしれない
  
    
    
     Hello world!
    
    
    

Hello World!!

    
    
  ぐらいで十分
14. 再度ブラウザでチェック。
15. ftpでコンテンツが入れられるようにする。

終わる際には、
16. コンソール動作中のインスタンスのStateを右クリックして、Instance LifecycleをTerminateにする。
17. 確認が来るのでYesを選択する。State がShutting downを経てterminateとなる。
18. EC2 Dashboardを確認し、自分のグループでRunnning Instancesが0であることを確認して終了する。


Amazon S3を使い始めた

クラウドをもっと暮らしに利用しよう、という言葉を標榜したくなり、手始めにまずAmazon S3の利用から始めようと思った。もちろんStorageはDropboxやMicrosoft SkyDriveがあって使いやすく人気もあるわけだが、もう少し素なサービスで自分が管理するようなサービスをやってみたいと思い、S3をそのまま利用してみることにした。

management consoleにSign inして、そこからS3のメニューを選ぶ。まずBucketをCREATEする。それからCREATE Folderで、Bucket配下にフォルダを作成する。
このとき、どこのエリアに作成するか聞いてくるので選ぶ。注:小文字しか許されないようだ。
これからアップロードを開始する。単一ファイルなら簡単だが、フォルダ全部を入れる場合には、βで、Enable Enhanced Uploader (BETA)があるのでそれを選ぶ。JAVAがインストールされるのが条件。+ダウンロードに2分ほどかかるようだ(失敗することもあった)。

これでuploadを選び、開始させると転送が開始される。何かクラウドだととても早く転送されるイメージがあるが、そんなわけではない。TCPのウィンドウのせいか、転送速度はどんどんと変化する。光アクセスでもせいぜい数百kbyte/sec – 数十kbyte/secの転送速度だ。N-americaとTokyoを比べてみたが、心なしかTokyoの方が早いような印象があった。


CoreserverへGitをインストール

CoreserverにGitをインストールしてみた。
ここを参考にしました。
はじめにソースをここ↓からとってくる。(現在の最新は1.7.11)
http://git-scm.com/

$ tar xvzf [tar.gzファイル名]
$ cd [解凍してできたディレクトリ名]
$ autoconf (./configure.ac しかなかったのでautoconfしてみたら./configureできた)
$ ./configure –prefix=$HOME/local
$ make
$ make install

であとはここ
通りにGit動作を確認すればOK。Viが最後立ち上がるようなので、終わらせるために
コマンドモード(Escを押した後)で「:q」と入力して「Enter」を忘れないよう。