2014年12月16日火曜日

SCP 接続専用のアカウントの設定

SIOS "OSSよろず" ブログ出張所は、新たにオープンしました「サイオス OSSポータルサイト」に移管されます。最新の情報はこちらをご確認ください。

こんにちは、岩本です。
本日は SCP 接続専用のアカウントの設定方法を紹介します。

SFTP 接続専用のアカウントを作成する方法に関しては、書籍やインターネット上で情報が多く掲載されているのですが、SCP 接続専用のアカウントを作成する方法については、私が調べた限りでは情報がありませんでした。今回、SCP 接続専用のアカウントを用意する設定をしてみたので、以下に紹介します。

2014年12月8日月曜日

psqlコマンドを便利に使う

SIOS "OSSよろず"ブログ出張所は、新たにオープンしました「サイオス OSSポータルサイト」に移管されます。最新の情報はこちらをご確認ください。

PostgreSQLの利用/管理されている方は日常的にpsqlコマンドを利用していると思います。SQL分を実行するだけではなく、psqlには様々な機能があります。今回はpsqlコマンドを便利に利用するための方法を幾つか紹介します。

記事の執筆に利用している環境はLinux上のPostgreSQL 9.3、ターミナルはgnome terminalです。

psqlの設定

pgsqlはヘルプ(\?)コマンドでテーブル定義などを参照する\dコマンドがあります。これはヘルプコマンドで一覧できるので利用されている方も多いと思います。psqlには動作を設定するコマンドや設定ファイルを指定することもできます。これらを利用すると、psqlコマンドをより便利に利用できるようになります。

psqlの初期化ファイル

psqlは起動時にホームディレクトリの.psqlrcを読み込む機能があります。.psqlrcにはpsqlコマンドから実行/設定可能なコマンドを記載することができます。これにより自分の好みにあった出力や便利なコマンドを設定/登録可能です。

2014年12月3日水曜日

NGINX Plus r5 リリース

SIOS "OSSよろず"ブログ出張所は、新たにオープンしました「サイオス OSSポータルサイト」に移管されます。最新の情報はこちらをご確認ください。

こんにちは、村田です。 本日は日本時間で12月2日の20時に情報が届きました NGINX Plus の最新バージョンの速報をお送りします。

2014年12月2日(米国時間)にNGINX Plusの最新バージョンの r5 がリリースされました。 今回のアップデートの目玉は TCP load balancing 機能の追加になります。 これまでは HTTP コネクションのロードバランシング機能のみでしたが、今後は TCP コネクションのロードバランシングが出来るようになることで、NGINX Plus をロードバランサーとして利用するシーンが増えるのではないでしょうか。

2014年11月26日水曜日

PostgreSQL 9.4 新機能の概要(2)

SIOS "OSSよろず"ブログ出張所は、新たにオープンしました「サイオス OSSポータルサイト」に移管されます。
最新の情報はこちらをご確認ください。

間もなくのリリースが予定されているPostgreSQLの新バージョン9.4より、前回は PostgreSQL9.4 の目玉となる新機能を紹介しました。今回はSQLに関連する新機能を紹介します。

リリース直前のPostgreSQL9.4、前回は目玉となる新機能を紹介しました。今回はSQLに関連する新機能を紹介します。

PostgreSQL 9.4新機能の一覧

重要な機能追加

  • レプリケーションスロット:レプリケーション元にレプリケートした位置を保存する機能
  • 論理デコーディング: レプリケーションデータを論理的な値として扱う機能

パフォーマンス改善

  • GINインデックス:小く&速く
  • pg_prewarm:事前ウォームアップ
  • JSONB型の追加:JSONデータをハッシュとして取り扱うデータ型

2014年10月28日火曜日

サイオス OSSポータルサイトのご案内

こんにちは、サイオステクノロジー 村田です。

日頃よりSIOS "OSSよろず"ブログ出張所をご利用頂きましてありがとうございます。
この度、サイオステクノロジーはビジネスに活用できるオープンソース・ソフトウェア(OSS)およびBigDataの情報ポータルサイトを公開しました。

サイオスならではの、商用OSSディストリビューションの情報から、OSSやBigDataの技術情報が集まる、ビジネスに活用できる情報発信を目的にしたサイトとなります。

ぜひ、新しいサイオス OSSポータルサイトをよろしくお願いします。

サイオス OSSポータルサイトでは下記のメニューを提供していきます。今後の更新をご期待ください。

  • Red Hat Ch.
  • Oracle Ch.
  • SUSE Ch.
  • EnterpriseDB Ch.
  • OSSよろず契約者 Ch.
  • よろずブログ
  • ビッグデータ ブログ
  • ゲストブログ
  • OSS Now!- AKAI's Insight- OSSトレンド情報
  • みみより情報(オープンソース関連のイベント情報、勉強会情報、ベンダーからの情報などをまとめています)

よろずブログはこちらよりご覧ください。

※本ブログサイトの新規記事も今後はサイオス OSSポータルサイトにて公開されます。過去記事は今後も残りますので合わせてご活用ください。

2014年10月22日水曜日

PostgreSQL 9.4 新機能の概要(1)

PostgreSQL9.4のリリースは秋頃ということですので、近いうちにリリースがされることが予想されます。既にリリースされているBeta版からPostgreSQL 9.4に予定されている主な新機能を二回に分て一通り紹介します。

ベータ版、開発版の情報を元に記事を作成しています。リリース版では差異がある可能性があります。予めご了承ください。

PostgreSQL 9.4新機能の一覧

重要な機能追加

- レプリケーションスロット:レプリケーション元にレプリケートした位置を保存する機能
- 論理デコーディング: レプリケーションデータを論理的な値として扱う機能
- JSONB型の追加:JSONデータをハッシュとして取り扱うデータ型

2014年10月15日水曜日

WAF要らずのSQLインジェクション対策

今回は注目される脆弱性問題に関連して、SQLインジェクション対策をご案内いたします。

Webアプリケーションの脅威としてSQLインジェクションがあります。SQLインジェクションが可能な場合、データベースを操作される以上の脅威も発生します。WAFとはWeb Application Firewallです。Webアプリケーションの脆弱性を緩和させる目的に利用します。SQLインジェクションの緩和策としても利用されています。

■ SQLインジェクションで可能な攻撃

WebアプリケーションにSQLインジェクションが在ることで可能な攻撃は、データの窃盗・改ざんのみではありません。例えば、オープンソースのSQLインジェクションツールは以下の機能をサポートしています。

- データベースベースの検出: MySQL, Oracle, PostgreSQL, Microsoft SQL Server, Microsoft Access, IBM DB2, SQLite, Firebird, Sybase, SAP MaxDB
- 攻撃技術: boolean-based blind, time-based blind, error-based, UNION query, stacked queries, out-of-band
- DB情報の列挙: users, password hashes, privileges, roles, databases, tables, columns
- ハッシュ化されたパスワードの辞書攻撃
- データベースダンプ
- ファイルのアップロード/ダウンロード
- 任意コマンドの実行と標準出力の取得
- データベースサーバーとTCP接続の確立(VNCなどを利用可能)
- データベース権限エスカレーション脆弱性の攻撃
http://sqlmap.org/

2014年10月8日水曜日

Red Hat Forum 2014のご案内

こんにちは、村田です。

本日は開催目前のRed Hat Forum 2014についてご案内します。

開催日:2014年10月10日(金)

会場:ウェスティンホテル東京
〒153-8580 東京都目黒区三田1−4−1 恵比寿ガーデンプレイス内

登録および当日のプログラムはこちらから

2014年10月1日水曜日

ShellShock(CVE-2014-6271)の各ディストリビューションの対応状況について

こんにちは、村田です。

本日は2014年9月24日に発見された脆弱性問題のShellShock(CVE-2014-6271)について、発見から1周間が経ち各ディストリビューションの対応状況も出揃いましたので、まとめてみました。

実際に同脆弱性をついた攻撃は始まっており、代表例ではCGIを利用するWebサーバなどは環境変数に悪意のあるコードを埋め込むことでサーバー上の情報を抜き取られる可能性やが乗っ取られる可能性がありますので注意が必要です。

また、Linuxサーバーだけではなく Linux/Unix をベースにしたネットワーク機器も同脆弱性の対象となる可能性があります。例えばネットワークルーターなどもWebベースの設定画面などをCGIなどで組むケースがあり、外部からアクセス可能な状況であれば脆弱性を突かれる可能性があります。

個人情報、重要データの漏洩やサイト改ざんという最悪な自体も想定されるため、外部からアクセス可能なネットワーク機器やサーバーなどは一度すべてチェック頂くと良いでしょう。

2014年9月24日水曜日

Nifty Cloud でのNGINX Plus 導入3

こんにちは、村田です。
3回目はNginxのリバースプロキシ機能を利用したロードバランシングを行います。

1台のNginxで処理できる負荷であれば、ロードバランシングをしない方がパフォーマンスは高いのですが、クライアントからのアクセスが多いサイト、特にBtoCのサイトではロードバランシング機能が必要になるケースが出てきます。

クラウド環境ではアプライアンスのハードウェアロードバランサーを導入しにくい場合もありますが、Nginxで解決できるケースも多くしかもコストも抑えられるので、クラウド環境との相性が良いといえます。今回の構成は以下のようなイメージになります。

2014年9月17日水曜日

Nifty Cloud でのNGINX Plus 導入2

こんにちは、村田です。

NIFTY Cloud さんの環境をお借りしての NGINX Plus 導入の第2回目です。
前回はNIFTY Cloud 上で CentOS 6.5 がインストールされた仮想サーバーの作成までを行いました。今回は作成したサーバーに対してNGINX Plus のインストールと基本設定を行いうところまでを行います。

OSS コミュニティ版の Nginx を yum 経由でインストールするのと手順はほとんどかわりなく、パッケージ取得の際の認証が必要になる形です。

仮想サーバーへのログイン

NIFTY Cloud では、コントロールパネル上で操作可能なコンソールを用意していますが、IE か Firefox が必要になります。今回はより利便性の高い SSH を使用してログインする方法でご案内したいと思います。

  1. SSHログイン
  2. 予め作成したSSHキーを任意のディレクトリに用意の上で ssh コマンドでアクセスします。
    Are you sure you want to continue connecting (yes/no)? と表示されたら、yes を入力して Enter キーを押下します。

    [root@localhost ~]# と表示がされればログイン成功です。

    $ ssh -i [SSHキー名]_private.pem root@[IPアドレス]
    Warning: Identity file [SSHキー名]_private.pem not accessible: No such file or directory.
    The authenticity of host '[IPアドレス] ([IPアドレス])' can't be established.
    RSA key fingerprint is aa:aa:aa:aa:aa:aa:aa:aa:aa:aa:aa:aa:aa:aa:aa:aa.
    Are you sure you want to continue connecting (yes/no)? yes
    Warning: Permanently added '[IPアドレス]' (RSA) to the list of known hosts.
    [root@localhost ~]# 
  3. NGINX Plusのインストール
  4. CentOSの環境でNGINX Plusをインストールする場合は yumレポジトリからのインストールとなります。
    SSLの設定が必要になるため、予めディレクトリの設定を行います。

    # mkdir /etc/ssl/nginx

    Nginx Inc. が用意したyumレポジトリにアクセスするためには、カスタマーポータルからSSLキーとレポジトリの情報をダウンロードする必要があります。カスタマーポータルへのアクセスには、評価版を申請頂くか、製品をご購入頂く必要があります。評価版のご相談はこちらよりご連絡ください。

    カスタマーポータルにログインすると以下のようにサブスクリプションの情報が取得てきます。アクティブなサブスクリプションの「Certificate」「Private key」のリンクからnginx-repo.crtとnginx-repo.keyをダウンロードします。

    画面の下部に「NGINX repository setup instruction」にアクセスし、To show setup instructions please choose your OS and distribution:の項目から「RHEL6/CentOS」を選択します。

    項目を選択すると下記の情報が表示されます。

      Setup instruction for RHEL6/CentOS6
    • Create /etc/ssl/nginx directory
    • Move CA.crt, nginx-repo.key and nginx-repo.crt files to /etc/ssl/nginx/ directory
    • Copy nginx-plus-6.repo file to /etc/yum.repos.d/ directory
    • Run yum install nginx-plus to install nginx-plus package. Please keep in mind that old nginx package (if any) will be replaced.
    • In order to upgrade from the previous version of nginx-plus, run yum upgrade nginx-plus

    まず Keys and certificates より「Certificate」「Private key」をそれぞれダウンロードしてサーバーにアップロードします。ローカルのシステムから一連のファイルをアップロードするには、以下のようにscpコマンドを使用するとよいでしょう。

    $ scp -i [SSHキー名]_private.pem nginx-repo.crt root@[IPアドレス]:/etc/ssl/nginx/

    CA.crt と nginx-plus-6.repo の部分がリンクになっているのでサーバー側で wget コマンドより取得します。

    # cd /etc/ssl/nginx/
    # wget https://cs.nginx.com/static/files/CA.crt
    --2014-08-31 23:47:33--  https://cs.nginx.com/static/files/CA.crt
    cs.nginx.com をDNSに問いあわせています... 206.251.xxx.xxx
    cs.nginx.com|206.251.xxx.xxx|:443 に接続しています... 接続しました。
    HTTP による接続要求を送信しました、応答を待っています... 200 OK
    長さ: 1606 (1.6K) [application/x-x509-ca-cert]
    `CA.crt' に保存中
    
    100%[======================================>] 1,606       --.-K/s 時間 0s     
    
    2014-08-31 23:47:35 (296 MB/s) - `CA.crt' へ保存完了 [1606/1606]
    
    # cd /etc/yum.repos.d/
    # wget https://cs.nginx.com/static/files/nginx-plus-6.repo
    --2014-08-31 23:54:37--  https://cs.nginx.com/static/files/nginx-plus-6.repo
    cs.nginx.com をDNSに問いあわせています... 206.251.xxx.xxx
    cs.nginx.com|206.251.xxx.xxx|:443 に接続しています... 接続しました。
    HTTP による接続要求を送信しました、応答を待っています... 200 OK
    長さ: 230 [application/octet-stream]
    `nginx-plus-6.repo' に保存中
    
    100%[======================================>] 230         --.-K/s 時間 0s     
    
    2014-08-31 23:54:38 (50.0 MB/s) - `nginx-plus-6.repo' へ保存完了 [230/230]
    

    各ファイルの送付が完了したら yum コマンドからインストールを行います。

    # ls /etc/ssl/nginx/CA.crt  nginx-repo.crt  nginx-repo.key
    # ls /etc/yum.repos.d/
    CentOS-Base.repo       CentOS-Media.repo  nginx-plus-6.repo
    CentOS-Debuginfo.repo  CentOS-Vault.repo
    # yum install nginx-plus
    Loaded plugins: fastestmirror, security
    Determining fastest mirrors
     * base: ftp.iij.ad.jp
     * extras: ftp.iij.ad.jp
     * updates: ftp.iij.ad.jp
    base                                                     | 3.7 kB     00:00    
    extras                                                   | 3.4 kB     00:00    
    nginx-plus                                               | 2.9 kB     00:00    
    nginx-plus/primary_db                                    |  31 kB     00:00    
    updates                                                  | 3.4 kB     00:00    
    updates/primary_db                                       | 4.8 MB     00:00    
    Setting up Install Process
    Resolving Dependencies
    --> Running transaction check
    ---> Package nginx-plus.x86_64 0:1.7.3-1.el6.ngx will be installed
    --> Finished Dependency Resolution
    
    Dependencies Resolved
    
    ================================================================================
     Package           Arch          Version                Repository         Size
    ================================================================================
    Installing:
     nginx-plus        x86_64        1.7.3-1.el6.ngx        nginx-plus        1.5 M
    
    Transaction Summary
    ================================================================================
    Install       1 Package(s)
    
    Total download size: 1.5 M
    Installed size: 2.1 M
    Is this ok [y/N]: y
    Downloading Packages:
    nginx-plus-1.7.3-1.el6.ngx.x86_64.rpm                    | 1.5 MB     00:01    
    Running rpm_check_debug
    Running Transaction Test
    Transaction Test Succeeded
    Running Transaction
      Installing : nginx-plus-1.7.3-1.el6.ngx.x86_64                            1/1
    ----------------------------------------------------------------------
    
    Thanks for using NGINX!
    
    Please find the documentation for NGINX Plus here:
    /usr/share/nginx/html/nginx-modules-reference.pdf
    
    More information about NGINX products is available on:
    * http://nginx.com/
    
    ----------------------------------------------------------------------
      Verifying  : nginx-plus-1.7.3-1.el6.ngx.x86_64                            1/1
    
    Installed:
      nginx-plus.x86_64 0:1.7.3-1.el6.ngx                                          
    
    Complete!

    ※ yumインストールの途中のコメントにもあるとおり、/usr/share/nginx/html/nginx-modules-reference.pdf にドキュメントが用意されていますので、こちらも忘れずに取得しておいて下さい。

    インストールが完了したらサービスを起動すればWebサーバーとして立ち上がります。

    [root@localhost ~]# /etc/init.d/nginx start
    nginx を起動中:                                            [  OK  ]

以下のように「Welcome to nginx!」のページが表示されれば初期設定は完了です。

次回は Nginx の設定ファイルを編集していき NGINX Plus 独自のライブステータス機能のセットアップからロードバランサーとして利用するところまでをご案内します。

OSSコミュニティ版 Nginx を使用する場合は yum レポジトリ作成のところで /etc/yum.repos.d/nginx.repo を作成し、設定ファイルには下記を入力します。

[nginx]
name=nginx repo
baseurl=http://nginx.org/packages/mainline/OS/OSRELEASE/$basearch/
gpgcheck=0
enabled=1

インストールは下記のコマンドを利用します。

# yum install nginx

詳細は http://nginx.org/en/linux_packages.html#mainline をご参照下さい。

2014年9月10日水曜日

NIFTY Cloud でのNGINX Plus 導入1

こんにちは、村田です。
今回、ニフティさんから環境をお借りして7月に販売開始したNGINX Plus を試す機会を頂きました。
NIFTY Cloudを利用したNGINX Plusの基本的な構成の導入を3回に分けてご紹介したいと思います。

NIFTY Cloud上での仮想サーバーの作成

NIFTY Cloud へのログインができる状態になっているところから手順をご案内します。ご利用の詳細は NIFTY Cloud さんのサイトをご確認ください。

2014年9月3日水曜日

PostgreSQL 9.4で強化されたJSON型 (第2回)

PostgreSQL 9.4で強化されたJSON型に関して第二回のご紹介となります。
第一回の内容はこちらをご参照ください。

Bツリーとハッシュインデックス

JSONB型のデータはPostgreSQLの複合型と同じように比較されます。

比較のルール
 −  Object > Array > Boolean > Number > String > Null
 −  Nの要素を持つObject > N-1の要素を持つobject
 −  Nの要素を持つArray > N-1の要素を持つArray

各要素が比較されるので、比較にはそれなりの時間が必要であることに注意が必要です。

2014年8月28日木曜日

9/17 第6回 OSS運用管理勉強会

こんにちは、村田です。

本日はOSS運用管理勉強会のご案内をいたします。


「第6回 OSS運用管理勉強会」が9月17日(水)に開催決定となりました。
今回は、「ジョブ管理」をテーマに以下の2つのプレゼンテーションを予定しています。

一つ目のプレゼンテーションは、オープンソースのジョブスケジューラー「JobScheduler」と、ZabbixとJobSchedulerの連携機能「HyClops Job Monitoring」をご紹介いただきます。

二つ目のプレゼンテーションは、Hinemosをベースにしたブラウザ操作型ジョブコントロールツール「JobDes」をご紹介いただきます。

今回も終了後に懇親会を開催します。毎回、懇親会も大変盛り上がりますので、お時間のある方は是非ご参加ください。

開催概要

日時 2014年9月17日(水) 18時30分〜(受付開始:18時)
会場 TIS株式会社 研修室
〒160-0023 東京都新宿区西新宿8-17-1
住友不動産新宿グランドタワー 14F
東京メトロ丸ノ内線 西新宿駅 出口1より徒歩3分
都営大江戸線 都庁前駅 出口E5より徒歩7分
JR線・京王線・小田急線 新宿駅 出口A18より徒歩9分
http://www.tis.co.jp/company/information/network/shinjuku.html
費用 無料(懇親会参加の場合は2,000円・領収書発行)
定員 100名(懇親会は会場の都合上先着50名まで)
プログラム

18:30〜18:35 オープニング

18:35〜19:15(Q&A:5分) プレゼンテーション(1)
『 JobSchedulerの紹介とZabbix連携機能の紹介』
講師:船井 覚(OSSラボ株式会社)/秋穂 賢(TIS株式会社)

・オープンソースのジョブ管理ツール「JobScheduler」の概要とエコシステム
・ZabbixとJobSchedulerの連携機能「HyClops Job Monitoring」のご紹介

19:15~19:55(QA:5分) プレゼンテーション(2)
『サーバ間を跨る複雑なジョブ管理もOK!「HTL-JobDes」のご紹介』
講師:永原 佳和(株式会社ホロンテクノロジー)Hinemosのジョブ管理機能をWEBブラウザ上から管理/設定を可能としたブラウザ操作型のジョブコントロールツール「JobDes(ジョブデス)」をご紹介します。

バッチ処理等の単体ジョブの作成、管理はもちろん、カレンダーを利用したジョブスケジュール機能や開始/終了遅延設定、待ち条件設定等を活用することで、サーバ間を跨る複雑なジョブの制御も容易に制御、管理することができます。

また、他の監視ツールとの容易な連携により、現在の運用体制を変えることなく、これまでの監視管理に加え、ジョブ管理機能を手軽にプラスすることを実現します。

19:55〜20:00 各種告知

20:00~21:00 懇親会(立食形式・軽食とお飲み物)
※先着50名、会費制(2,000円)、別途お申し込みが必要

参加お申し込みは以下URLよりご登録ください。

http://www.oss-kanri.org/20140917_vol06/

2014年8月27日水曜日

今使える "オープンソースソフトウェア" の 最新動向セミナー

こんにちは、村田です。

今回はOSSを推進する立場として、OSSの最新動向をご紹介するセミナーをご案内します。

2014年9月16日 14時より日本OSS推進フォーラム クラウド技術部会が主催の「今使える "オープンソースソフトウェア" の 最新動向セミナー」が開催されます。

最近話題のビッグデータも実はOSSが使われるケースが多く深く関わっていますので、OSSに関係する方からビッグデータに関係される方まで、最新の動向を知ることができる良い機会となりますので、ぜひともご参加ください。

主催: 日本 OSS 推進フォーラム クラウド技術部会
日時: 9月16日(火) 14:00 ~ 16:40  (受付13:30~)
費用: 参加費無料
場所: 株式会社日立ソリューションズ
JR 品川イーストビル 20F セミナーホール

発表内容:
・OSS 最新動向
 ~2013年度オープンソースソフトウェア活用動向調査報告~
 (LinuxFoundation SI Forum 吉田行男)

・OSS によるビッグデータシステム
 ~動向調査結果と選択方針について~
 (株式会社日立製作所 中島雅彦、日本電気株式会社 中島武史)

・OSS がドライブするビッグデータクラウドサービスについて
 (トレジャーデータ株式会社 代表取締役 三橋秀行)


※ セミナー詳細、申し込みはこちらから
  http://connpass.com/event/8243/

2014年8月20日水曜日

Docker,JBoss Data Virtualizationを活用し、Cloud,BigDataとOSS DBMSの連携・統合をデモを交えながら発表(Enterprise DB Summit Tokyo 2014発表報告)

初めまして、髙橋@OSSテクノロジーセンターです。 普段は、SIOSビッグデータ技術ブログで、ビッグデータに関連する技術についての記事を公開しております。

さて、今回は、2014年7月17日に開催されたEnterprise DB Summit Tokyo 2014で, 下記のタイトルで発表とデモを弊社4名で実施したので、その発表内容について紹介したいと思います。

「Cloud、BigData時代のオープンソースデータベース連携・統合ソリューション」 ~Docker,JBoss Data Virtualizationを活用し、Cloud,BigDataとOSS DBMSの 連携・統合をデモを交えながらご紹介~

2014年8月6日水曜日

PostgreSQL 9.4で強化されたJSON型

今回はPostgreSQL 9.4で強化されたJSON型について2週に分けてご紹介します。

PsotgreSQL9.4で更に強化されるJSON型

これまでにもJSON型については何度か解説してきました。現在のJSON型も非常に強力ですが、PostgreSQL9.4ではJSON型が更に強化されます。どのように強化されたのか解説します。

■ 現在のJSON型と新しいJSONB型

現在のJSON型はテキストデータとして保存されています。JSON型に保存されたデータにアクセスするには、テキストとして保存されたJSONデータをアンシリアライズしてからアクセスする必要がありました。新しいJSONB型はJSONデータをPostgreSQLネイティブのデータ型として保存します。PostgreSQLネイティブのデータ型として保存されるため、JSONデータのテキストをアンシリアライズせずにアクセスできるようになります。つまりより効率的に保存・アクセスできるようになります。

2014年7月30日水曜日

NGINX Plus r4 リリースと Nginx のナンバリングについて

こんにちは、村田です。

今回は 7月24日に公開された NGINX Plus の新バージョンと Nginx のリリースバージョンに関するルールについてお知らせします。

NGINX Plus r4 リリース

※ ここからは NGINX Plus を本家の人たちが使っている N+ で表記していきたいと思います。

N+ r4 は OSS 版 Nginx Build 1.7.3 をベースに構成されており、主なアップデートは下記の通りです。
機能のアップデートの他にも RHEL7/CentOS7 にもいち早く対応しているところも忘れてはいけませんね。

  • Added the ability to verify backend SSL certificates.
  • Added support for SNI while working with SSL backends.
  • Passphrases for SSL private keys can now be stored in an external file.
  • New load balancing method based on user-defined keys with optional consistency.
  • Introduced a new session affinity mechanism (sticky learn) based on server-initiated sessions.
  • Cache revalidation now uses If-None-Match header if possible.
  • Added conditional logging for requests (the if parameter of the access log directive).
  • Added the ability to retrieve a subset of the extended status data.
  • MP4 module now supports the end query argument which sets the end point of playback.
  • Lua module updated to version 0.9.10 (nginx-plus-lua, nginx-plus-extras).
  • Passenger open-source module updated to version 4.0.45 (nginx-plus-extras).

詳細は以下の「NGINX Plus r4 released 」にて解説されています。(英語)
http://nginx.com/blog/nginx-plus-r4-released/

Nginxのリリースバージョンのルールについて

OSS 版の Nginx では、現在 Mainline と呼ばれる 1.7系と Stableline と呼ばれる 1.6系が最新バージョンとして提供されています。
開発はMainlineで行われ、Stableは重要なBugfixのみが提供され機能拡張は行われません。
これまでは 1年サイクルでバージョンアップを繰り返していますので、来年の4月~5月にかけて 1.8系、1.9系がリリースされる計算になります。

一般的には Stableline を安定版と呼ぶ傾向がありますが、開発者の Igor氏からは機能改善やBug修正はまず Mainline に適用されるため、実は Mailline の方が安定して使えるという話もありました。

Stableline には大きな機能追加や仕様の変更が行われる事はない(限りなく少ないが正しいでしょうか)ため、利用用途に合わせてバージョンは選択を頂くと良いかと思います。

N+ のリリースバージョンのルールについて

N+ は Mailline のバージョンより独自の拡張機能を追加して提供されるため、別のバージョン管理が行われています。

N+ r1,r2,r3,r4... というナンバリングルールの元で提供されており現在は4ヶ月サイクルでの新バージョンのリリースが行われています。

2014年6月20日金曜日

オープンソースを活用した運用管理の最先端!(6/4 第5回 OSS運用管理勉強会参加報告)

無題ドキュメント

オープンソースを積極活用したシステムインテグレーションに興味があり、今年の4月にサイオステクノロジーに中途入社した髙岡です。こんにちは。

さて、初めてのブログ投稿となる今回は、6/4(水)に参加してきたOSS運用管理勉強会の報告です。この勉強会はサイオステクノロジーが法人企業会員として参加しております。オープンソースの世界で最先端を行く方々のお話を聞くことができ、とても参考になりました。

今回のトピックは2つです。

『運用統合ソフトウェア「Hatohol」のご紹介』

複数のZabbixサーバの監視対象機器だけでなく、Nagiosの監視対象機器も纏めて監視できる統合ビューアです。今後は監視だけでなく、インシデント管理等の機能追加も目指しているそうです。

確かに、大規模ユーザの電算センターとか、データセンターのオペレーションルーム等を覗いてみると、JP1ならJP1コンソール、TivoliならTivoli用コンソール、TNGならTNGコンソール etc.....

など、製品毎に専用のコンソールが置かれていて、それぞれの製品毎に運用設計を行い、使い方を覚える必要があります。それらを一つのソフトウェア、ユーザインターフェースで管理できれば、運用負荷が大幅に軽減できることが期待できます。

このような運用統合ツールは「有償製品ならあるけど、オープンソースには無いよね」という声をきっかけに開発を始めたそうです。私はこれまでオープンソースに対しては、基盤系エンジニアとしての立場で関わってきましたので、オープンソースそのものを開発する立場ではありません。

 

実際にオープンソースを開発されている方のお話を直で聞くのは初めてだったこともあり、基盤系のエンジニアとしてはちょっと難しい内容だったのですが、とても興味深いものでした。技術要素の詳細は資料は、上記リンクの資料をご覧いただきたいのですが、興味深かったのが、ログ管理機能として使っているFluentdです。

ということで、Fluentdも初耳だったので調べてみました。

ログ管理機能としては、syslog、syslog-ng、rsyslogを活用する事例が多いかと思います。昔のように物理サーバ一台に一つのシステムが動いている環境だけでなく、仮想基盤上やクラウド上でも動くシステムが出現し、しかもログを出力するシステムは急に増えることもある、という状況に対する従来のsyslogの限界を克服するために出現してきたツールのようです。現在は、統合対象はZabbixとNagiosのみで監視が主な機能ですが、インシデント管理、ログ管理、更にはジョブ管理 etc.. 運用統合機能を増やしていってほしいものです。商用製品ベンダーをギャフンと言わせるような発展を期待しています!

『Zabbix徹底活用術の紹介』について

Zabbixの機能やアーキテクチャをきちんと理解して、うまく活用してきましょう、というのが発表の主旨です。これは、Zabbixだけでなく他の製品やOSSにも共通して言えることですよね。。

エンジニアって、初めて触る製品やソフトウェアのインテグレーションをする機会が多いかと思いますが。。皆さん、頑張って勉強しましょう。(汗

私は、商用の運用管理ツールの経験はあるのですがZabbixの経験が無いので、あまりお話の有難みを実感できなかったのが残念でした。Zabbix経験のある方であれば、なるほど、と感じるTIPS的な要素があったのではと思います。

最後に懇親会風景です。

ベンチャー企業の社長さんから、ベンダーの部長クラスの方、現場で運用管理を担当している方、若い方からベテランの方まで、幅広い層の方が参加されていました。

  • 女性は殆ど居なかったので、老若男女とは言い切れません。。

人脈をひろげたり、参考になる話を聞くことができる良い機会なので、次回開催時には皆さんもぜひ参加してみてください。

さて、サイオステクノロジーでは、オープンソースに興味がある方を積極的に採用しております。

徹底的にオープンソース技術を深堀したい方、興味のある方の応募をお待ちしております!

http://www.sios.com/recruit/career.html


2014年6月12日木曜日

サイオスの Nginx ユーザーコミュニティ活動

こんにちは、村田です。

サイオステクノロジーのWebサイトにユーザーコミュニティ活動のページが出来た事はご存知でしょうか。
今回はこの中から来週ユーザー会が立ち上がりますコミュニティ活動についてご案内します。

サイオスの Nginx ユーザーコミュニティ活動

近年注目を集めているオープンソースのWebサーバー、Nginx (エンジンエックス)についてサイオステクノロジーは日本のユーザー同士の情報交換や勉強会などを実施していくためのユーザーコミュニティを立上げ、支援してまいります。

今後ユーザーコミュニティWebサイトの公開、さまざまな形式の支部の設立、オープンソースカンファレンス等での出展、勉強会開催などに関わっていく予定で、6月18日(水)に実施するNginxユーザー会としての初回の集まりを下記URLでご案内しています。

サイオス | Nginx ユーザーコミュニティ活動
http://www.sios.com/us/nginxcomm.html

Nginxユーザ会 #0
http://connpass.com/event/6682/
(サイオステクノロジーの外部サイト外に接続されます)

Nginxユーザ会 #0 には既に定員を超える登録を頂いております。当日は USTREAM でのライブ中継も予定しておりますので、ご興味をお持ちの方は SIOSチャンネルからのご視聴をご検討ください。

SIOSチャンネル
http://www.ustream.tv/channel/sios

2014年5月28日水曜日

PostgreSQLの他データベースにアクセスする仕組み(FDW(Foreign Data Wrapper)編)

こんにちは、稲垣です。

前回は PostgreSQLには他のデータベースにアクセスする仕組みとして dblink をご案内しました。
今回は FDW(Foreign Data Wrapper) についてご案内します。

前回の dblink の記事はこちらからご確認ください。

■ FDWとは?

FDWはPostgreSQL 9.1から導入され、9.2からpostgres_fdwが利用できるようになりました。現在も様々な拡張が行われています。
FDWはより汎用的な外部データベースへのアクセス手段を提供します。PostgreSQL Wikiによると以下のデータラッパーが利用できます。

SQL Databases Wrappers
postgres_fdw
oracle_fdw
mysql_fdw
tds_fdw(not working)
odbc_fdw
jdbc_fdw
informix_fdw (WIP)
NoSQL Databases Wrappers
couchdb_fdw
MonetDB FDW
mongo_fdw
redis_fdw
Neo4j fdw
Tycoon FDW
File Wrappers
file_fdw
file_text_array_fdw
file_fixed_length_record_fdw
json_fdw
Others
twitter_fdw
ldap_fdw
PGStrom
s3_fdw
www_fdw

http://wiki.postgresql.org/wiki/Foreign_data_wrappers

PostgreSQLのデータラッパーはもちろん、MySQL、Oracle、TDS(MS SQL Server)、ODBC、JDBC、Informixなども用意されています。NoSQL系のデータベース、ファイル、Webサービスのデータラッパーまであります。この他にPythonでFDWを記述できるMulticorn FDWもあります。

新しいPostgreSQLではdblinkよりpostgres_fdwを利用する方が色々頭を悩ませる事が少なくなります。

■ PostgreSQL FDW

PostgreSQL FDWはdblinkと似たような機能を提供します。しかし、トランザクション管理とリモートクエリ最適化の面でdblinkより優れています。

F.31.3. トランザクション管理

外部サーバ上のリモートテーブルを参照する際に、まだトランザクションが開始されていなければpostgres_fdwはリモートサーバ上でトランザクションを開始します。 ローカルのトランザクションがコミット、あるいはアボートした時、リモートのトランザクションも同様にコミット、あるいはアボートします。 セーブポイントも同様に管理され、リモート側に関連付けられたセーブポイントが作成されます。

F.31.4. リモート問合せの最適化

外部サーバからのデータ転送量を削減するため、postgres_fdwはリモート問合せを最適化しようと試みます。 これは問い合わせのWHERE句をリモートサーバに送出する事、およびクエリで必要とされていないカラムを取得しない事により行われます。 問い合わせの誤作動のリスクを下げるため、ビルトインのデータ型、演算子、関数だけを用いたものでない限り、リモートサーバにWHERE句は送出されません。また、WHERE句で使われる演算子と関数はIMMUTABLEでなければなりません。

http://www.postgresql.jp/document/9.3/html/postgres-fdw.html

■ PostgreSQL FDWの利用

PostgreSQL FDWはcontribディレクトリにあります。PostgreSQL 9.3から機能が拡張されています。今回は9.3を利用します。

■ インストール

PostgreSQL 9.3のソースディレクトリから以下のコマンドを実行し、インストールします。

$ make -C contrib && sudo make -C contrib install

次にPostgreSQL 9.3を起動し、データベースにpostgresql_fdw拡張を登録します。psqlのコマンドラインからCREATE EXTENSIONコマンドを実行します。

localhost ~=# CREATE EXTENSION postgres_fdw;
CREATE EXTENSION
時間: 299.364 ms

これで、アクセス中のデータベースにpostgres_fdwが登録されました。psqlのコマンドラインからは以下のように確認できます。

localhost ~=# \dx
インストール済みの拡張の一覧
名前     | バージョン |  スキーマ  |                             説明
--------------+------------+------------+--------------------------------------------------------------
dblink       | 1.1        | public     | connect to other PostgreSQL databases from within a database
plpgsql      | 1.0        | pg_catalog | PL/pgSQL procedural language
postgres_fdw | 1.0        | public     | foreign-data wrapper for remote PostgreSQL servers
(3 行)

これでpostgres_fdwを利用する準備が整いました。

■ リモートデータベースの準備

テスト用にリモートデータベースを準備するにはpgbenchが便利です。テスト用にremotedbを作成し、pgbenchでデータデータを作成します。別のPostgreSQLサーバーに準備しても構いませんが、今回はテストなのでローカルのPostgreSQLに準備します。

remoteデータベースの作成

$ createdb -U postgres -h 127.0.0.1 -p 5432 -E UTF-8 remote

データベースの初期化

$ pgbench -U postgres -h 127.0.0.1 -p 5432 -i -s 1000 remote

これでテスト用のリモートデータベースが準備できました。

■ リモートデータベースの利用

FDWを利用したリモートデータベースには更に、外部サーバー登録、ユーザーマッピング登録、外部テーブル登録のステップが必要です。

リモートサーバーの登録

まずCREATE SERVERを利用して、利用するデータラッパーを指定してリモートサーバーを定義します。

CREATE SERVER server_name [ TYPE 'server_type' ] [ VERSION 'server_version' ]
FOREIGN DATA WRAPPER fdw_name
[ OPTIONS ( option 'value' [, ... ] ) ]

http://www.postgresql.org/docs/9.3/static/sql-createserver.html

実際にローカルホストのremoteデータベースを登録する場合

localhost ~=# CREATE SERVER remote_postgres FOREIGN DATA WRAPPER postgres_fdw OPTIONS (host '127.0.0.1', port '5432', dbname 'remote');
CREATE SERVER
時間: 121.581 ms

psqlから"\des”と入力すると作成した外部サーバー名、所有者、外部データラッパーを確認できます。

localhost ~=# \des
外部サーバー一覧
名前 | 所有者 | 外部データラッパー
-----------------+---------+--------------------
remote_postgres | username | postgres_fdw
(1 行)

ユーザーマッピングの登録

マッピング登録にはCREATE USER MAPPINGを利用します。

CREATE USER MAPPING FOR { user_name | USER | CURRENT_USER | PUBLIC }
SERVER server_name
[ OPTIONS ( option 'value' [ , ... ] ) ]

http://www.postgresql.org/docs/9.3/static/sql-createusermapping.html

この記事の執筆に利用しているPostgreSQLサーバーはローカルからの接続にtrustモードを利用しているので、パスワード設定などが必要ありません。次のコマンドでマッピングを作成します。

localhost ~=# CREATE USER MAPPING FOR PUBLIC SERVER remote_postgres OPTIONS (password '');
CREATE USER MAPPING
時間: 21.034 ms

外部テーブルの登録

外部テーブルの作成にはCREATE FOREIGN TABLEを利用します。

CREATE FOREIGN TABLE [ IF NOT EXISTS ] table_name ( [
column_name data_type [ OPTIONS ( option 'value' [, ... ] ) ] [ COLLATE collation ] [ column_constraint [ ... ] ]
[, ... ]
] )
SERVER server_name
[ OPTIONS ( option 'value' [, ... ] ) ]

where column_constraint is:
[ CONSTRAINT constraint_name ]
{ NOT NULL |
NULL |
DEFAULT default_expr }
http://www.postgresql.org/docs/9.3/static/sql-createforeigntable.html

pgbenchでテーブルを定義したデータベースを保存する、remote_postgresサーバーへアクセスする外部テーブル定義は以下の様に行います。

  localhost ~=# CREATE FOREIGN TABLE remote_pgbench_accounts(aid int, bid int, ablance int, filler CHAR(84)) SERVER remote_postgres OPTIONS (table_name 'pgbench_accounts');
CREATE FOREIGN TABLE
時間: 197.626 ms

これで外部データベースのpgbench_accountsテーブルにアクセスできるようになりました。

■ 外部テーブルへのアクセス

外部テーブルへアクセス方法はローカルのデータベースと変わりません。

localhost ~=# SELECT * FROM remote_pgbench_accounts LIMIT 3; aid | bid | abalance | filler
-----+-----+----------+--------------------------------------------------------------------------------------
1 |   1 |        0 | 
2 |   1 |        0 | 
3 |   1 |        0 | 
(3 行)
時間: 1.686 ms

これだけではローカルのテーブルにアクセスしているのか、リモートのテーブルにアクセスしているのかわかりません。EXPLAINでクエリプランを表示するとリモートテーブルにアクセスしている事が確認できます。

localhost ~=# EXPLAIN SELECT * FROM remote_pgbench_accounts LIMIT 3;
QUERY PLAN
-----------------------------------------------------------------------------------------
  Limit  (cost=100.00..100.14 rows=3 width=100)
  ->  Foreign Scan on remote_pgbench_accounts  (cost=100.00..129.80 rows=660 width=100)
  (2 行)
時間: 373.532 ms

ローカルテーブルにアクセスした場合には見られない"Foreign Scan"が表示され、リモートテーブルにアクセスしていることが確認できます。

■ まとめ

今回はdblinkとpostgres_fdwの利用方法のみを紹介しました。dblinkとpostgres_fdwは似たような機能を提供しますが、postgres_fdwの方がクエリを効率的に実行できます。

2014年5月22日木曜日

PostgreSQLの他データベースにアクセスする仕組み(dblink編)

こんにちは、稲垣です。

PostgreSQLには他のデータベースにアクセスする仕組みが2種類用意されています。
一つはdblinkで他のPostgreSQLのデータベースにアクセスできます。もう一つはFDW(Foreign Data Wrapper)です。FDWはPostgreSQL 9.1から導入され、9.2からpostgres_fdwが利用できるようになりました。現在も様々な拡張が行われています。

今回は2回に分けて、dblink と FDW についてご案内します。

■ dblinkとは?

dblinkは別のPostgreSQLサーバーが管理するデータベースにアクセスする仕組みです。PostgreSQLのCクライアントライブラリであるlibpqを利用して、他のPostgreSQLデータベースにアクセスします。

dblinkは以下の書式を持っています。

dblink(text connname, text sql [, bool fail_on_error]) returns setof record
dblink(text connstr, text sql [, bool fail_on_error]) returns setof record
dblink(text sql [, bool fail_on_error]) returns setof record

http://www.postgresql.jp/document/9.3/html/contrib-dblink-function.html

実際に利用する場合、以下の様に利用します。

local=# SELECT * FROM dblink('dbname=remote user=postgres', 'SELECT version()') AS t(v text);

このクエリはdblinkで接続したデータベース名を返します。任意のクエリを実行できますが、record型を返さなければなりません。このため、この例ように、t(v text)と戻り値となるレコードの定義を明示しなければなりません。

何度も dblink を利用する場合、ビューを作成すると便利です。

CREATE VIEW myremote_pg_proc AS
SELECT *
FROM dblink('dbname=postgres', 'select proname, prosrc from pg_proc')
AS t1(proname name, prosrc text);

ビューを作成すると通常のテーブルのように扱えます。

SELECT * FROM myremote_pg_proc WHERE proname LIKE 'bytea%';

 

■ dblinkの制限

dblinkはリモートDBのデータをローカルデータベースのテーブルのように利用できるので、他のPostgreSQLサーバーのデータにアクセスしたい場合に便利です。しかし、制限もあります。

クエリの中で利用されると、結果全てをローカルデータベースに転送します。結果のレコード数が少ない場合は問題となりませんが、大きな場合にはクエリ実行効率が非常に悪くなります。

特にdblinkをビューとして作成した場合、クエリはローカルデータベースのテーブルを利用する場合と変わりません。ジョインを行った場合、ジョインに必要なレコードのみが選択されて送信されるのではなく、テーブル全てのデータがローカルデータベースに転送された後、ローカルでジョイン処理が行われます。この動作はほとんどの場合、この好ましくない動作でしょう。

この他にも整合性の問題があります。dblinkはリモートDBのテーブルや行を全くロックしません。この為、クエリの整合性が必要な場合は二層コミットを利用する必要があります。

 

■ dblink_openとdblink_close

クエリ内容を一度に全て送信されるとパフォーマンスに大きく影響します。必要なレコードのみを順次取得するにはカーソルを利用します。dblink_open関数はリモートデータベースでカーソルを開きます。

dblink_open(text cursorname, text sql [, bool fail_on_error]) returns text
dblink_open(text connname, text cursorname, text sql [, bool fail_on_error]) returns text

dblink_openで開いたカーソルはdblink_closeで閉じます。dblink_openとdblink_closeの間にdblink_execを使用してデータを変更した場合、エラーが発生します。 dblink_closeの前にdblink_disconnectを使用すると、トランザクションがアボートしますので変更が失われます。

dblink についてはここまでとなります。来週は「PostgreSQLの他データベースにアクセスする仕組み(FDW編)」 をご案内します。

2014年5月15日木曜日

PostgreSQL : マテリアライズドビューを利用した設計

マテリアライズドビューを利用した設計

こんにちは、稲垣です。
PostgreSQL9.3からビューを作成した時点からデータが変わらないビューである「マテリアライズドビュー」が追加されました。今回はPostgreSQL9.3の目玉新機能である、更新されないマテリアライズドビューの動作(ディスク使用量)を紹介します。

■ システムの要件

実用的な例として複数のデータソースからバッチジョブでデータを更新するシステムを想定します。

    システムの要件
  • システムは基本的に24稼働を前提とする
  • データが更新されている途中のデータは一般ユーザーが参照できない事
  • データ更新中も特定のユーザーは更新中のデータを参照できる事
  • データが更新された場合の更新時間を最小限にする事
  • データ量が多いのでディスク使用量は最小限にする事

このようなシステム要件でテーブル設計を考えてみます。

2014年5月8日木曜日

2014年6月4日 第5回 OSS運用管理勉強会開催のお知らせ

こんにちは、OSSビジネス推進の村田です。

サイオステクノロジーが法人企業会員として参加しているOSS運用管理勉強会の「第5回 OSS運用管理勉強会」が6月4日(水)に開催決定となりましたのでお知らせします。
一般にはあまり公開されていない運用をノウハウを、会員企業およびユーザー企業で情報共有を行おうという目的で開かれているため、運用に携わる方であれば良い勉強の機会になるのではないかと思います。ぜひ、皆様お気軽にご参加ください。   
  
今回は、以下の2つのプレゼンテーションを予定しています。

一つ目のプレゼンテーションは、複数のZabbixサーバ、およびNagiosサーバからデータを取得し、一括監視を可能にするオープンソースソフトウェア『運用統合ソフトウェアHatohol』をご紹介いただきます。

二つ目のプレゼンテーションは、書籍『Zabbix統合監視徹底活用 ~複雑化・大規模化するインフラの一元管理』を執筆された池田 大輔さんに、効率良い運用環境を実現するための様々なZabbix活用テクニックをご紹介いただきます。

今回も終了後に懇親会を開催します。毎回、懇親会も大変盛り上がりますので、お時間のある方は是非ご参加ください。

2014年4月30日水曜日

PostgreSQL - ルールを使った読み込み専用テーブル、ログテーブルなどの作成2

こんにちは、稲垣です。

2週に分けてご紹介しております、PostgreSQL の「ルールを使った読み込み専用テーブル、ログテーブルなどの作成」の2回目となります。前回の記事については、以下のURLをご参照ください。

PostgreSQL - ルールを使った読み込み専用テーブル、ログテーブルなどの作成1

■その他のルールの機能

PostgreSQL の INSERT、UPDATE、DELETE 文は RETUNING 句で SELECT 文の様に結果を返せます。ルールでも全く同じように結果を返せます。RETRUNING を利用する場合、更新条件などを付けることはできません。

また、元のテーブルと異なるコラム数のデータや異なるデータ型、集約関数などの結果も返せません。

2014年4月24日木曜日

PostgreSQL - ルールを使った読み込み専用テーブル、ログテーブルなどの作成1

PostgreSQL には他の RDBMS にはあまり見られないルールという仕組みがあります。ルールはクエリを書き換える仕組みです。トリガーでできる事の一部がルールで実現できます。

ルールは PostgreSQL に特徴的な仕組みで、ルールを直接使用しなくてもビューはルールとして実装されています。ルールはストアドプロシージャを作らなくても簡単にクエリ動作を変更でき、便利な場合もあります。

今回は2週に分けて、ルールを使用した読み込み専用テーブルのログテーブルの作成を紹介します。

記事の執筆には Linux 上の PostgreSQL 9.3(git版) を利用していますが、古い PostgreSQL でも同様に実行できます。

2014年4月16日水曜日

Red Hat Enterprise Virtualization 3.3 のセットアップ

こんにちは、村田です。

これまで、Red Hat Enterprise Virtualization と oVirt については何度かご案内をしてきておりますが、Red Hat Enterprise Virtualization 3.3 にバージョンアップされたとともに、Red Hat Enterprise Virtualization Manager のセットアップ方法が変わりました。今回はこの変更されたセットアップについてご案内をします。

過去にサイオスでのハンズオンセミナーをお受けいただいた方も、最新版では導入手順が異なりますので、本内容を参考に導入を頂ければと思います。

2014年4月9日水曜日

SUSE Cloud3 の導入(Admin Node編)

こんにちは、村田です。

OpenSSLの脆弱性でOSS関係者が賑わっておりますね、このような問題が出ると改めてアップデートの重要性は考えさせられます。

さて、今回はSUSE Cloud 準備編に続いて、Admin Nodeのインストールの流れを重要な項目に絞ってご案内します。

細かなネットワーク設定などを含めると記事が相当長くなりますので割愛しますが、基本的には以下のDeployment Guideを参考にインストールすることで導入ができましたので、実際に作業をされる際にはこちらのドキュメントをご活用ください。
https://www.suse.com/documentation/suse-cloud3/book_cloud_deploy/data/book_cloud_deploy.html

2014年4月2日水曜日

SUSE Cloud3 の導入(準備編)

こんにちは、村田です。

今回は3月に販売が開始されました SUSE Cloud をご紹介します。

Cloud という最近話題のキーワードが入っていますが、OpenStack のディストリビューションとなります。

SUSE Cloudは簡単にプライベートクラウドが構築できるという話なので、技術職を引退した私でも作れるのかということでチャレンジをしてみます。

SUSE Cloud とは

OpenStackをベースにSUSE Enterprise Linux で有名なノベル株式会社がエンタープライズ向けに作成した企業向けのOpenStackディストリビューションです。OpenStack Havanaリリースに基づくSUSE Cloud 3は、OpenStack Orchestration (Heat)およびOpenStack Telemetry (Ceilometer)をフルサポートしています。

近年のAmazon AWSを筆頭にクラウドへの需要は拡大していますが、容易にパブリッククラウドに持ち出せないシステムが存在する企業も少なくないのではないでしょうか。

パブリックには持ち出せないがクラウドの利便性は社内に取り込みたいという企業の中で導入検討が進んでいるのがOpenStackとなりますが、オープンソース版のOpenStackはまだまだ技術的な敷居が高く導入に踏み込めないという声も多く聞きます。敷居が高いと諦めていた方にも、SUSE Cloudはぜひ一度お試し頂ければと思っております。

SUSE Cloud の詳細については以下URLをご覧ください。
https://www.suse.com/ja-jp/promo/susecloud3.html

SUSE Cloudを導入する前に

SUSE Cloud を試すにあたり、 "Subscription Management Tool" の導入を忘れてはいけません。(私は最初忘れていましたが...)

この Subscription Management Tool の導入も簡単に行うことが出来ます。ただし、パッケージの同期には時間が掛かるため、事前に構築されることをおすすめします。

2014年1月24日金曜日

2014年2月4日 第4回 OSS運用管理勉強会開催決定!

こんにちは、今回はOSS運用管理勉強会の村田としてご案内します。

2014年2月4日(火)に「第4回 OSS運用管理勉強会」が、サイオステクノロジー 9F、コラボレーションラウンジにて開催することが決定しました。普段はサイオスの社員のみが利用できるリフレッシュスペースですが、今回、特別に勉強会会場として提供します。
サイオスの内部を見ることができる機会でもあるので、サイオスに興味がある方もお気軽にご参加下さい!

OSS運用管理勉強会は、「Zabbix」をはじめとしたオープンソースソフトウェアの運用管理ツールを企業システムで利活用するための情報交換と情報発信を目的として、2013年7月に設立された非営利団体です。サイオスもメンバーの一員として活動を行っております。

さて、今回の運用管理勉強会の内容ですが、Zabbixを活用した「運用の自動化」という点でプレゼンテーションが予定されています。
普段から運用業務に携わる方には、運用にかかるエンジニア工数は課題の一つではないでしょうか。日々の運用業務から開放されることで、これまで手が付けられていなかった業務の改善や新たなサービスの対応など、よりビジネスを拡大させるための活動に時間を使うことできるようになります。

簡単ですが、今回の勉強会で取り扱うソフトウェアをご案内します。

運用自動化プラットフォーム「Kompira」

Kompira は日々の運用を自動化するツールです。
シンプルで分かりやすいジョブフロー言語により、既存の運用フローや手順から違和感なくジョブフローを起こすことができます。オープンソース・ソフトウェアとの連携も簡単にでき、今回の勉強会では Kompira を活用した実践的で効率的な Zabbix の運用をご案内します。

Kompira
http://www.kompira.jp/

Herokuのオートスケール addon 「Bounscale」

Bounscale は Heroku のオートスケール addon として組み込まれるオートスケール機能です。
この Bounscale は Zabbix を利用してログを取得しており、そのアーキテクチャについて勉強会でご案内します。
Zabbix を組み込んだソフトウェア開発のヒントにもなるのではないでしょうか。

Bounscale
https://github.com/bounscale/bounscale

■ 第4回OSS運用管理勉強会開催概要 ■

【日時】2014年2月4日(火) 17:30~21:00(17:00~受付開始)

【場所】サイオステクノロジー株式会社 9F コラボレーションラウンジ

【定員】100名(懇親会は先着50名様まで)

【費用】勉強会:無料、懇親会:会費制(2,000円)

【プログラム】

 17:30~18:15 Zabbix入門セミナー「はじめてのZabbix」
   ※ 定員:30名(先着順)

 18:30~18:35 オープニング

 18:35~19:15 (Q&A:5分) プレゼンテーション(1)
 『運用自動化プラットフォーム「Kompira」を活用した効率的なZabbix運用』

 19:15~19:55 (QA:5分) プレゼンテーション(2)
 『Zabbixを活用したPaaSオートスケールサービス Bounscale』

 20:00~21:00 懇親会(立食形式・軽食とお飲み物)
 ※懇親会は先着50名、会費制(2,000円)となります。
  懇親会へ参加希望の方は、勉強会お申込みの際に必ず懇意会へ「参加する」
  にチェックを入れてお申込みください。

▼▽ 詳細/お申し込みはこちらから ▽▼
http://www.oss-kanri.org/20140204_vol04/

 

2014年1月16日木曜日

PostgreSQL 9.3 の JSON データのインデックス

こんにちは。渡辺です。

前回は PostgreSQL 9.2 で実装された JSON サポートの機能を振り返ってみましたが、今回は PostgreSQL 9.3 で強化された JSON サポートの機能が、どのように利用できるようになったか確認してみます。

PostgreSQL 9.3 から JSON データ型のサポートが強化され、JSON データ型のオペレータや関数が利用できる様になりました。

PostgreSQL 9.2 では JSON データにインデックスを利用するには PLV8 を利用する必要がありました。PostgreSQL 9.3 からはオペレータ等を利用して JSON データに高速にアクセスできるようになります。