3.11以降、話題の過去データ一をRにでもかけてみようかと思いましてね。
FileZillaのキューを見ると、どうやら過去データは数TB×3式以上あるようで、サービスの邪魔にならないように帯域制限をかけてちまちまミラーダウンロードしていました。(最大5MiB/sくらい出たので、200KiB/sくらいに設定)
3GB程度ダウンロードしたところで、FTPにアクセスできなくなりました。
タイトル:
データ提供サービスの不具合についてお知らせ日:
2014年09月19日内容:
9/19(金)15:00現在、システムのトラブルにより、FTPによるデータ取得が
できない状態になっております。
利用者の皆様にはご迷惑をおかけいたしますが、ご理解の程よろしくお願いします。
なお、httpによるデータ取得(観測局を地図から選択してのデータ取得)は、
正常に稼働しております。
昨日はWinSCPで30GBくらい抜けたので、FileZillaのお行儀が悪いんですかね。
あるいは電子基準点データのブームが来てる?
ごみためからのアドバイス:
こんなTB超級のビッグなデータは、Torrentで配布するとかしないと、話になりませんて。
せめてミラーサーバを展開するとか。Wideくらいには声かけてないの?
りんくる: