CentOS7にZeppelinインストール

https://github.com/apache/zeppelin
readmeを読みながら進める。
ただ、ubuntu用ぽいのでCentOS7用にちょっと変更。

また、色々入ってるサーバをそろそろなくす予定だったので
そちらに入れてみたらポート競合したぽいので新たにサーバ構築。
一応、古いけど、ほかにも参考にしたサイト。
「Apache Zeppelin」のインストール方法まとめ

準備

yum install wget
wget http://www.eu.apache.org/dist/maven/maven-3/3.3.3/binaries/apache-maven-3.3.3-bin.tar.gz
sudo tar -zxf apache-maven-3.3.3-bin.tar.gz -C /usr/local
sudo ln -s /usr/local/apache-maven-3.3.3/bin/mvn /usr/local/bin/mvn
yum install java-1.7.0-openjdk-devel
yum install npm
git clone https://github.com/apache/incubator-zeppelin.git
cd incubator-zeppelin/

このあと、手順のbasicと書かれているやつを選択してmvnすると
20分近く待たされてエラー。

[INFO] Running 'npm install --color=false' in /root/incubator-zeppelin/zeppelin-web
[ERROR] npm ERR! Linux 3.10.0-327.22.2.el7.x86_64
[ERROR] npm ERR! argv "/root/incubator-zeppelin/zeppelin-web/node/node" "/root/incubator-zeppelin/zeppelin-web/node/node_modules/npm/bin/npm-cli.js" "install" "--color=false"
[ERROR] npm ERR! node v0.12.13
[ERROR] npm ERR! npm  v2.15.0
[ERROR] npm ERR! code ECONNREFUSED
[ERROR] npm ERR! errno ECONNREFUSED
[ERROR] npm ERR! syscall connect
[ERROR]
[ERROR] npm ERR! Error: connect ECONNREFUSED
[ERROR] npm ERR!     at exports._errnoException (util.js:746:11)
[ERROR] npm ERR!     at TCPConnectWrap.afterConnect [as oncomplete] (net.js:1012:19)
[ERROR] npm ERR!  { [Error: connect ECONNREFUSED]
[ERROR] npm ERR!   code: 'ECONNREFUSED',
[ERROR] npm ERR!   errno: 'ECONNREFUSED',
[ERROR] npm ERR!   syscall: 'connect',
[ERROR] npm ERR!   parent: 'zeppelin-web' }
[ERROR] npm ERR!
[ERROR] npm ERR! If you are behind a proxy, please make sure that the
[ERROR] npm ERR! 'proxy' config is set properly.  See: 'npm help config'
[ERROR]
[ERROR] npm ERR! Please include the following file with any support request:
[ERROR] npm ERR!     /root/incubator-zeppelin/zeppelin-web/npm-debug.log
[INFO] ------------------------------------------------------------------------

よくわからないけど、npmで失敗。

cd zeppelin-web
npm install

元の階層に戻ってまたmvnでエラー

[ERROR] Failed to execute goal com.github.eirslett:frontend-maven-plugin:0.0.25:grunt (grunt test) on project zeppelin-web: Failed to run task: 'grunt test --no-color' failed. (error code 3) -> [Help 1]
[ERROR]
[ERROR] To see the full stack trace of the errors, re-run Maven with the -e switch.
[ERROR] Re-run Maven using the -X switch to enable full debug logging.
[ERROR]
[ERROR] For more information about the errors and possible solutions, please read the following articles:
[ERROR] [Help 1] http://cwiki.apache.org/confluence/display/MAVEN/MojoFailureException
[ERROR]
[ERROR] After correcting the problems, you can resume the build with the command
[ERROR]   mvn  -rf :zeppelin-web

泣きたい。
結果、この前に実行した、npm installでWARNだったやつが問題?
Stackoverflow様をちゃんと見てたけど、やっぱりちゃんとやるべきだった。

npm remove karma-phantomjs-launcher --save
npm install karma-phantomjs-launcher --save-dev
cd ..
mvn clean package -Pspark-1.6 -Phadoop-2.4 -Pyarn -Ppyspark

やややややっときたああああああ

[INFO] Zeppelin ........................................... SUCCESS [  8.798 s]
[INFO] Zeppelin: Interpreter .............................. SUCCESS [02:29 min]
[INFO] Zeppelin: Zengine .................................. SUCCESS [ 34.787 s]
[INFO] Zeppelin: Display system apis ...................... SUCCESS [ 29.956 s]
[INFO] Zeppelin: Spark dependencies ....................... SUCCESS [ 47.237 s]
[INFO] Zeppelin: Spark .................................... SUCCESS [03:36 min]
[INFO] Zeppelin: Markdown interpreter ..................... SUCCESS [  0.991 s]
[INFO] Zeppelin: Angular interpreter ...................... SUCCESS [  0.375 s]
[INFO] Zeppelin: Shell interpreter ........................ SUCCESS [  0.424 s]
[INFO] Zeppelin: Livy interpreter ......................... SUCCESS [  0.685 s]
[INFO] Zeppelin: HBase interpreter ........................ SUCCESS [  9.418 s]
[INFO] Zeppelin: PostgreSQL interpreter ................... SUCCESS [  1.940 s]
[INFO] Zeppelin: JDBC interpreter ......................... SUCCESS [  2.734 s]
[INFO] Zeppelin: File System Interpreters ................. SUCCESS [  1.962 s]
[INFO] Zeppelin: Flink .................................... SUCCESS [ 33.481 s]
[INFO] Zeppelin: Apache Ignite interpreter ................ SUCCESS [ 24.512 s]
[INFO] Zeppelin: Kylin interpreter ........................ SUCCESS [  1.093 s]
[INFO] Zeppelin: Python interpreter ....................... SUCCESS [  1.736 s]
[INFO] Zeppelin: Lens interpreter ......................... SUCCESS [  7.790 s]
[INFO] Zeppelin: Apache Cassandra interpreter ............. SUCCESS [03:30 min]
[INFO] Zeppelin: Elasticsearch interpreter ................ SUCCESS [ 19.093 s]
[INFO] Zeppelin: Alluxio interpreter ...................... SUCCESS [01:02 min]
[INFO] Zeppelin: web Application .......................... SUCCESS [01:34 min]
[INFO] Zeppelin: Server ................................... SUCCESS [03:43 min]
[INFO] Zeppelin: Packaging distribution ................... SUCCESS [  2.195 s]
[INFO] ------------------------------------------------------------------------
[INFO] BUILD SUCCESS
[INFO] ------------------------------------------------------------------------
[INFO] Total time: 19:48 min

さっそく実行。

./bin/zeppelin-daemon.sh start

あとは8080ポートで接続すればOK!
firewallの解放も忘れずに。

zeppelin

PostgreSQL9.6betaのインストール

PosgreSQL公式サイト
PostgreSQL 9.4.4をソースコードからインストールする

日本法人サイトが上位に出てきて邪魔。
なにをするにも、最新バージョンと安定バージョンは確認したいので
せめてそれは日本法人サイトのほうにも載せてほしい。

yumだと結構古いのがインストールされるのでこの確認は必須だと思う。

いつもOSのバージョン確認方法を忘れるのでメモ

cat /etc/redhat-release

CentOS Linux release 7.2.1511 (Core)

yum install postgresql-server postgresql-contrib postgresql-devel

yumでPostgreSQLインストールをしたところ9.2.15-1.el7_2が入るらしい。

ReleaseNoteを斜め読みしたけど、特に必要だと思う差分は見つからない。
最近手を抜いてyumでやることも多かったけど、最近のOSSは昔と違って最新版(Beta)でも安定していると勝手に思ってるので最新版にしてしまおう。

公式サイトからsourceをダウンロード。

yum install zlib-devel
yum install readline-devel

postgreSQLに必要なものがあるらしいので2つともinstall

curl -O https://ftp.postgresql.org/pub/source/v9.6beta1/postgresql-9.6beta1.tar.gz
tar zxvf postgresql-9.6beta1.tar.gz
cd postgresql-9.6beta1
./configure

色々オプションあるみたいですが、特に指定なしで実施。

make
make install

.bashrcでpathを通す。

export PATH=/usr/local/pgsql/bin:$PATH

なんだかこの辺からあいまいなサイトが多くなったのでいくつかサイトを確認。
参考:PostgreSQL導入から接続まで
そして今更ユーザ追加。

useradd postgres
passwd postgres
...
...
su - postgres
vi .bashrc
    (省略)
    POSTGRES_HOME=/usr/local/pgsql
    PGLIB=$POSTGRES_HOME/lib
    PGDATA=$POSTGRES_HOME/data
    export PATH=$POSTGRES_HOME/bin:$PATH
mkdir /usr/local/pgsql/data

initdb --encoding=UTF8 --no-locale -D $PGDATA
pg_ctl -D $PGDATA start

systemctl start …みたいな起動をイメージしてたけど違うのか。

さっそくDB接続。
まだDBはないので、Defaultであるpostgresで試す。

psql postgres
select now();
\q

pg_ctl stop -D $PGDATA

最後に停止。

そして軽くよく使いそうなコマンドを探してみたらドンピシャなサイト
PostgreSQLとMySQLで、僕がよく使うシステムコマンドのメモ

うーん。。
こういう文字数を極限まで減らしたのって、他のツール触ってると忘れるから嫌なんだよね。
高校生の時にVCの本とか読んでも???だったのも、文字が省略されすぎてて暗号にしか見えなかったのも原因だと思うんだよね。
略語ということさえわからなかったし。

話はそれたけど、大体これで確認できたかな。
あとはまたWordpressのDBだけ移行して、全部混ざったサーバをついに捨てよう。

MariaDBインストール(からのPostgreSQLインストール)

Memo: MariaDBのインストール/初期設定

MariaDBのインストールは他のサービスよりも情報が豊富で洗練されているように感じたが
微妙に使えなかったので自分で作成。

関係ないけどMariaDBだけでなく、Gitlab、Nginx、PHP-FPMなどなど
昔と比べて、ディレクトリ構造など統一されてきてかなり楽になったなー。

インストール

yum install -y mariadb mariadb-devel mariadb-server

設定ファイル変更

cp -p /usr/share/mysql/my-default.cnf /etc/my.cnf.d/default.cnf
vi /etc/my.cnf.d/default.cnf

[client]
default-character-set = utf8

[mysqld]
character-set-server = utf8

サービス起動

systemctl start mysql

<初期化>
/usr/bin/mysql_secure_installation

最初にパスワードを聞かれるが、ここまで何も設定していないので何も入力せずにEnter
次にパスワード設定されるのか聞かれるので、yを押してパスワードを二回入力。

それ以降のメッセージも大体yを押して次へ。

rootユーザでdatabaseへ接続

mysql -p
Enter password:

色々確認

show databases;
show tables from mysql;
status
select host, user from mysql.user;

ここまで来たところで以前インストールしたものより古いことが発覚。
また、使い勝手もイマイチな雰囲気を受けたのでビルドからに切り替える。

と、思ったが、それをするならPostgreSQLにしてもいいのではと。
そこで色々確認。
昔調べた感じでは、PostgreSQLはマルチコア、MySQLはマルチスレッド
CPUリソースを使い切れるのはMySQLだからおすすめ!みたいな記事が多かった印象。
でもMySQLがOracleに買収されたということで、MariaDBかPostgreSQLの比較に。

調査を進めるとなんだかPostgreSQLが勝つことありきで記事書いてるなという印象が強い。
でも、GitlabなんかもPostgreSQLに変わったみたいだし、流れはPostgreSQL側になってきていると感じる。

2014年の夏ごろに作ったシステムでMariaDBを採用した経験&2016年1月ころの経験上
まだMariaDBのJDBCドライバーがイケてない。MySQLのJDBCドライバのほうができることが多い。
しっかりベンチマークしたわけではないが、速度もMySQLのほうがはやいので
サポートが弱いと判断されてPostgreSQLに流出するのはありえるのかもしれない。
MySQLユーザには当たり前かもしれないが、結合が1種類しかないのもSQLが直感的に書けなくて嫌だし。。

じゃぁ、PostgreSQLが主流なのか?と思ってグーグルトレンドで確認。
MySQLがどんどん下がっていってるものの、他と比べると圧倒的に検索されている。
念のためMySQLを比較からはずしてみた。
結果、PostgreSQLは下げ止まりして微増しているようにみえた。

みんなどんなデータベース使ってるんだよ。。。

NoSQLで代用できるのかと確認してみたが、やっぱり普通の使い方するならDBで良さそう。
単純に熟成してきて調べることもなくなってきたと勝手に結論づける。

勝手に回避してたけど、なにげにWikiが一番欲しい情報乗ってた。

機能だけ見ると確かにPostgreSQLに軍配が上がる。
でもどうしても決め手に欠ける。
恐らく、どちらも熟成してるってことなんだろう。。。
PosgreSQL推し、MariaDB下げの記事みてもなんかイチャモンにしかみえないし。。

ただ、MySQL使ったことがあり、PostgreSQL使ったことない身としては
Wikiの問い合わせ機能の表は正直許せるレベルじゃない差だったので今回はPostgreSQLを採用。
マルチコア、マルチスレッドの問題も、今の時代に限界性能まで引き出す必要がある要件が想像できないし、
仮に存在してもチューニングした結果は誤差レベルに落ち着くだろうから、そもそも別アプローチが必要なはず。
と、すっぱいブドウ理論で自分を納得させる。(なんだこの問題点。)

前置きが長くなった。。。

PostgreSQLインストールにて改めて書き直し。

Apache Spark9

ApacheSparkについて書くのもついに記事も9投稿目。
ビッグデータを解析するのは良いんだけど、その後よくわからないデータをどのように表現してよいか悩んでた。

単純にApacheSparkのWebUIやGraphXなどが該当すると思っていた。
Apache Zeppelinというのが可視化(Visualization)するために作られたものぽい。

グラフ化したいという思いから、検索でgraphといれるとgraphXが引っかかる。
思ったページとはちょっと違うという人は、Visualizationで検索しよう!
あとはchartもそこそこ調べたい内容が表示してくれる。
(この検索ワードを探すために仕事中に抜け出して本屋に行くという。。。)

可視化で調べると、大体こんなところにも行きつく。
NVD3
D3.js
KIBANA
などなど聞くが、Spark内で完結しているものという思い込みがあるため、ちょっと戸惑っていた。

結局、ぼくがやりたかったことは、中でSpark使ってることは当然だけど可視化の部分が超重要だったので
Sparkの話題はここまでで、これからはApach zeppelinで進めていくことになりそう。

かなり遠回りしてしまった。

そのzeppelinを使ったおすすめサイトはこちら。
ことり隊入荷情報をSparkで分析してTableauで可視化する

というわけで、またサーバ構成変更しよう。

Apache Spark 8

前回の記事

今回も引き続き整理。

そもそもBigdata分析する必要あるの?
まだまだ立ち上げたばっかりでデータ量が大したことないしSQLで良くない?
ってパターンが多い気がする。

実際、SQLで出来る分析はSQLでやるべきだと思う。
処理時間に関しては小規模なデータならSQLのほうが早いだろうし簡単だから。
NoSQLの考え方もDBを捨てるわけではない。
単純に道具の使い分けの問題。

どんな例があるのだろうか。
例えばBigdataでよくある話はおむつとビールを置く話。

特定の時間帯におむつとビールを買う人が多いという話。
そこから、夫がおつかいを頼まれ、そのついでに自分のご褒美にビールを買うのではないかという考察。

ここで大事なのは、気づいてしまえば大したことのないコロンブスの卵だと思う。
ただ、4つのイドラによって見えているのに見えていない状態。
そんな常識だと思い込んでいるものを打ち破る銀の弾丸になりコペルニクス的転回な答えに辿り着けるための手段がビッグデータ分析。

と、いろいろ難しそうな言葉を並べてみた。

言いたいことは、結局ビッグデータ分析も手段にすぎないということで。
その常識を打ち破るためには、日々のモニタリングが大事。
そして、様々な視点で見ることは当然のこと、レンジを変えてみることも大事なのだろうと。

で、モニタリングは良いんだけど、実際どんなふうにグラフ化すればいいんだよって調べてみるけど全然答えが出てこない。
ビッグデータ 勝てるモニタリング 100選!みたいなサイトないんかね。

いや、この際3つくらいでもいいんだけど。。。

というわけで、いろんなサイトで集めた情報でヒントになりそうなワードだけでもメモ

ユーザ属性
・住所
・年齢
・性別
・メッセージ(形態素解析)

システム
・ページビュー
・ユニークユーザ
・再訪期間

よくある例
・レコメンド

統計
参考:【ビッグデータ分析】本当に必要な手法は5つだけ!調べると小難しいそれぞれの概要を解説
・クロス集計

クロス集計とは特定の2つもしくは3つの情報に限定しデータの集計・分析を行う手法であり、アンケート調査などによく用いられる手法です。
例えばアンケートの質問項目で得たデータを縦軸に、そして年齢や性別や職業などのデータを横軸に置くことで、属性ごとのデータ集計・分析が行えます。
ECサイトではクロス集計を用いて属性別の顧客満足度や人気商品を把握することで、販売予測を立てるなど運営に役立てることが可能。
エクセルなどのOfficeソフトに標準搭載されているデータ分析の一つであり、もっともポピュラーな手法とも言えます。

・ロジスティック回帰分析

ロジスティック回帰分析とは物事の発生確率を予測する手法のひとつであり、医療業界においても良く使用される分析手法です。
たとえば喫煙者・非喫煙者の肺がん発生率など「0か1か(発生するかしないか)」を元に分析される手法なので、分析結果が0~1で表現されるのが特徴的ですね。
ロジスティック回帰分析で発生確率を分析することにより、より正確なターゲティング等が可能となります。

・決定木分析(けっていぎぶんせき)

決定木分析とは、樹木上のモデルを活用して要因を分析、その結果から予測を行うもの。
この分析手法は様々なビジネスシーンで活用され代表的なビッグデータ分析手法の一つとなっています。
顧客の分類などを分析する場合の特に有効であり、「原因」から「結果」を枝分かれ式に分析していくことにより仮説を立てやすくなります。
「原因」→「結果」と上から下へ枝分かれしていく図が樹木のように見えることから、決定木分析と呼ばれているようです。

・アソシエーション分析

ビッグデータ分析の中核を成す手法であり、簡単に言うとスーパーやコンビニなどの買い物で何と何が一緒に買われているかを分析する手法です。
ビッグデータ活用事例で都市伝説化している「おむつとビールの法則」も、このアソシエーション分析によるものです。
一見関連性がないように思えるが、共起性のある事柄の間に埋まる原因を分析することでマーケティングに役立てる手法となります。

・クラスター分析

クラスター分析とは異なる性質が混ざり合う集団の中から、似たもの同士を集めクラスター(集落)を作り、対象を分類する手法となります。
クラスター分析を用いることにより客観的な判断基準に従って分類ができるため、マーケティングリサーチにおいてはポジション確認のためのブランド分類や、生活者のセグメンテーションなどが可能です。
単に対象のデータをクラスターに分類するだけでなく、クラスターごとがどのように結合しているのかがわかるためマーケティングに有効な分析手法です。

今作っているサービス用にいくつか具体的な例で考えてみた。
結果、使い分けがわからなくなってきた。
と思って調べてみたら結構いいサイトが見つかった。
判別分析、ロジスティック回帰分析、決定木、MT法、などなどの違い

結局、わからないから色々な分析して監視しておけってことでいいかな。

別途、仕事用のものにまとめてみたけど、
利用者がワクワクするような展開は難しいなぁ。

なんだか全然別の言語教育教材分野のほうが生かせそうな気がしてきたな。

phpを利用してのPostRequest方法

めちゃくちゃはまってるので調べた内容をメモメモ

Linux上で普通にコマンドを利用してcURL

成功例

curl -O  -X POST -d "fn=TAROU&ln=YAMADA"

「OK^M」のファイルが取得できた。これをcatやechoしてもなぜか何も表示されない。(あまり気にせず進める)

失敗例

curl -O  -X POST -F "fn=TAROU&ln=YAMADA"

この–dataと–formではパラメータの渡し方が違うので、
失敗してもそんなものかなと思っていよいよPHPを利用して実行。

PHPでのエラーハンドリング方法など少し謎で、
解決方法を見ても未だにしっくりこないが、下記の内容をソースに記載して表示されるように修正。
(JavaerなぼくからするとGrobal変数だとかStaticメソッドと思えるものが多すぎて気が狂ってるとしか思えない)

$errno = curl_errno($ch);
$error = curl_error($ch);
if (CURLE_OK !== $errno) {
	echo "
aaaa
$errno
$error"; throw new RuntimeException($error, $errno); }

どうやらErrorNo=6, CURLE_COULDNT_RESOLVE_HOST ということで名前解決ができないらしい。
コマンドでは問題ないのに。

一応、DNS周りの設定を変更してみたものの
コマンドで動く以上当然関係ないよねってことでなんにもかわらない。。。

解決策で出てくるサイトを見ると/etc/hostsに直書きばかり。
もうDNSの存在意義を問い詰めたいレベル。
とはいえ、埒があかないと思ったのでIPアドレスを直書きしてみたところ、Error77に。

そしてたどり着いた下記のサイト。

cURLライブラリにてSSL証明がNSSになってしまう問題の回避方法

ここに一縷の望みをかけてTry!!!!

cURLのサイトでは、7.49が最新版でした。

そこで、cURLのライブラリを更新する必要があります
ビルドに必要なライブラリ

yum install openssl-devel libmetalink-devel libssh2-devel c-ares-devel stunnel perl-Time-HiRes

とのことでしたが全然たりないようで追加。
その後リビルド。

yum install openldap-devel libidn-devel libpsl-devel nss-devel groff "perl(Digest::MD5)"

rpmbuild --rebuild curl-7.49.0-1.1.cf.fc25.src.rpm

かなり長くログが出続けるのでぼけーっとしながら待ち。
exit 0で正常終了!

■インストール

cd /root/rpmbuild/RPMS/x86_64
rpm -Uvh ./curl-7.49.0-1.1.cf.rhel7.x86_64.rpm ./libcurl-7.49.0-1.1.cf.rhel7.x86_64.rpm ./libcurl-devel-7.49.0-1.1.cf.rhel7.x86_64.rpm

■確認

curl --version
curl 7.49.0 (x86_64-redhat-linux-gnu) libcurl/7.49.0 NSS/3.21 Basic ECC zlib/1.2.7 libidn/1.28 libpsl/0.7.0 (+libicu/50.1.2) libssh2/1.4.3
Protocols: dict file ftp ftps gopher http https imap imaps ldap ldaps pop3 pop3s rtsp scp sftp smb smbs smtp smtps telnet tftp
Features: AsynchDNS IDN IPv6 Largefile GSS-API Kerberos SPNEGO NTLM NTLM_WB SSL libz UnixSockets Metalink PSL

Apache Spark 7

前回の記事から時間が経ってしまい、かなり忘れてたので整理。

■フォルダ構成

# ll
-rw-r--r-- 1 root root    206 Apr  6 14:41 simple.sbt
drwxr-xr-x 5 root root   4096 Apr 13 11:24 target
-rw-r--r-- 1 root root  77053 Apr 27 10:34 user.sql
-rw-r--r-- 1 root root   2199 Apr 20 15:22 UserTransition.scala

■コンパイル(sbtコマンド)
mavenと似たようなイメージで、必要なライブラリをsimple.sbtに記載
sbt packageで実行。

# sbt package

■実行(spark-submit)
カレントディレクトリはspark_sampleで実施しているので、コマンドはフルパスで実行(pathは通していない)

# /opt/spark-1.6.1/bin/spark-submit --class UserTransition --master local[*] target/scala-2.10/simple-project_2.10-1.0.jar user.sql

サーバー移行途中経過メモ2

■イメージ
               <Internet>
                 ↓ ↑
               <Webサーバ>
               Nginx 80,443
            ↓ ↑        ↓ ↑
      <APサーバ>            <その他>
       Nginx 80              Nginx 80,443
    JBossEAP ajp:8009            PHP-FPM:9000
           http:8080           Wordpress
           https:8443           Gitlab:8080
           admin:9990          Restyaboard:???
            ・・・                Zabbix:8008?
      Apache Solr               JobScheduler:4444?
      Apache Spark
            ↓ ↑        ↓ ↑
                <DBサーバ>
               MariaDB:3306

■これまでのはまりポイント
PHP-FPMはchrootに値を設定すると、timezoneの設定やDNSの設定などが見れなくなる。
よほどセキュリティをガチガチにやりたい人でも設定しないほうが無難。
chrootを設定して、reslove.confを解決できないエラーがでる場合は設定ファイルがそもそも見えてないです。

OSSのDBとしてはMariaDBよりもトレンドはPostgreSQLに感じる。
でもなんだか無理やり悪いところを言っているような気がしてなんとも言えない。

WordPressは画像をDBに保存しているわけではないので、移行の際は持っていく必要がある

firewalldについて、Centos7が出たころよりは情報が充実してきている。
selinuxは、sakura cloudはデフォルトでoffになっている?

現時点ではDBサーバだけまだきれいになっていない状態。
APサーバは0から作る。

DBサーバにはいくつかDatabaseが登録されているが
動作確認用に使っているものがほとんどなので、wordpressのみサルベージすればなんとかなりそう。

他のはJPAかDDL文をGitlabに保存してなんとかしよう。
Gitlabのサブディレクトリ運用もそういえばイマイチだった?
最終的には解決したっけ?
その他用のサーバは別件で壊れたと思って作り直し中。
Gitlabは復活していないのでそちらを再構築時にまた記載。
とくにソースを保存していないのですぐに復旧できる予定。