初めてのVimプラグイン開発とMUGENUPエンジニアのエディタ事情
初めまして!MUGENUPアルバイトの倉成です。こちらで書く初めての記事として、今回は僕が初めて作ったVimプラグインとMUGENUPエンジニアのエディタ事情について紹介しようと思います。
僕自身はMUGENUPでアルバイトを始めてから、Emacs, SublimeText, RubyMineといろいろなエディタに手を出していましたが、現在はVimに落ち着いています。
もちろん、それぞれのエディタには一長一短があり「他で出来たことがこっちでは出来ない」というようなことはよくありますよね。
後置記法を支援するプラグイン
そんな中でも、RubyMineを使っていた時に便利だと思った「bodyが1行のif, unless, while, until文を後置記法に変換する*1」ことがVimではできず、軽く調べてもプラグインが見つからなかったので、自分で作ってみることにしました*2。
Github: https://github.com/kuranari-tm/backend_if
内部の処理は比較的簡単で、カーソル行が一行化・複数行化できるかを判定し、もし変換可能であれば正規表現等を使って置換を行っています。
このプラグインはif cond then
のようにthen
が入っているとうまく動かなかったり、コードを整形するのにnormal! 2k3==
と強引なことをやっていたりと、不十分な部分は多いのですが、普段の開発で使えるプラグインを開発できたのが何よりの成果でした。便利なプラグインを使うのももちろんよいですが、自給自足で必要な物を作る楽しみは何物にも代えがたいですよね。
if文の一行化・複数行化はよく行うと思うので、if文を後置化するのにddkPJ==jdd
などしている方、ぜひこのbackend_ifやsplitjoinを使ってみてください!
MUGENUPエンジニアのエディタ事情
さてさて、エンジニア同士の会話で「エディタ何使っていますか?」というのは鉄板ネタだと思うので、MUGENUPエンジニアのエディタ事情について少し紹介します。
現在MUGENUPでは8人のエンジニアで開発をしているのですが、使用エディタは
と圧倒的にSublime Textが人気です。
確かに、新人さんやIDEしか使ったことがない人がメンバーに加わる時には「とりあえずSublime使ってみよう!」ってなりますもんね。 学習コストが比較的低い割に、高機能で拡張性もあり、とてもよいエディタだと思います。
ということでSublime勢の勢力に押され、社内でVimを使っているのは少数派となってしまっているのですが、サーバー設定の場面などではVim(Vi)が使えたほうが何かと便利だったりするので、これからも少しずつ良さを広めていけたらなと思います。
おわりに
今回は僕が初めて作ったプラグインの紹介、そしてMUGENUPエンジニア陣のエディタ事情について書かせていただきました。
if文を一行化・複数行化する機能は初めてのプラグイン開発にちょうどいい難易度に感じたのでEmacsやSublime textなど他のエディタを使っている方も同様なプラグインを作ってみてはいかがでしょうか。
GithubへのPull Requestもお待ちしています!
Yammer に投稿したLGTMな画像を、GitHub に POST する Chrome 拡張を作ってみた
皆さん、こんにちは。MUGENUP の osada です。
今回のテーマは、
の3点です。
読者ターゲットは、
画像は S3 に置きたいけど、管理はしたい
人や、
<input type="file"> を使わずに画像をPOSTしたい
人です。
注: 一部画像にモザイクを掛けてあります。copyrightを守ります
Yammer から GitHub に
開発部では、社内コミニケーションツールとして、Yammer
を使っています。
Yammer は社内専用の Facebook のようなSNSです。
そこに LGTM な画像置き場を作っているのですが、Yammer の URL をそのまま GitHub に投稿しても表示できません。
Yammer は会員制でクローズドなので GitHub はアクセスすることができないからです。
そこで今までは、
- yammer から ローカルPC にダウンロード
- ローカルPC から GitHub にアップロード
という2手順を踏んで、LGTM に使っていました。
しかしこの手順は意外と面倒くさい!
結局、LGTM.in
と拡張機能 LGTMでめでたさを伝えるChrome拡張をつくった - Thinking-megane を使ってしまい、
このままでは Yammer は、ただの画像置き場になってしまう!
ということで、今回、Chrome 拡張を作ることにしました。
Chrome拡張の動作
動作は大きく3つに分かれます
Yammer API
で、投稿を取得(JSON
)し、サムネイル画像をレンダリングする- 選択したサムネイル画像を、
BLOB形式
でダウンロードする - 画像を
GitHub
を経由してS3にアップロードする
鍵となるのは、下記の2点です。
- 画像を BLOB として扱うこと
- GitHub は画像を3段階でアップロードすること
では、1つずつ解説していきます。
Chrome 拡張の構造
と、その前に、Chrome 拡張の構造を解説します。
この Chrome 拡張は、下記の3つから成り立っています。
- chrome拡張を定義する、
manifest.json
- chrome拡張側の、アイコンをクリックしてポップアップする、
popup.html
とyammer.js
。 - 表示中のページで読み込まれる
content.js
chrome 拡張と、表示中のタブ間は、完全に独立しているため、 yammer.js と content.js は、メッセージで通信することになります。
Yammer API
で、投稿を取得(JSON
)し、サムネイル画像をレンダリングする
chrome 拡張側、アイコンをクリックすると、popup.html を開き、yammer.js を読み込んで投稿を取得します。
function loadAndAppendGroupImages($body, groupID){ var url = "https://www.yammer.com/api/v1/messages/in_group/"+ groupID + ".json"; $.getJSON(url) .done(function(data, status, xhr){ var images = []; data.messages.forEach(function(message){ if(message.attachments){ message.attachments.forEach(function(attachment){ if(image = createImage(attachment)){ images.push(image); } }); } }); var image_tags = []; images.forEach(function(image){ image_tags.push(toHTML(image)); }); $body.replaceWith(image_tags); }) .fail(function(xhr, status){ $body.replaceWith("<div style='width: 200px'>読み取れません。ログインしていないか、ネットワークが違います</div>"); }); }
この json は、messages の array が返ってきます。
この中で画像の情報は attachments
に含まれています。
ここから、サムネイルURLとダウンロードURLを取り出して、popup.html にレンダリングします。
なお、createImage
と toHTML
は、取り出しと、HTML整形です。
function createImage(attachment){ return { thumbnail_url: attachment.thumbnail_url, download_url: attachment.download_url }; } function toHTML(image){ return "<a href='" + image.download_url + "'>" + "<img src='" + image.thumbnail_url + "'>" + "</a>" + "<br>"; }
{ "threaded_extended": {}, "messages": [ { "id": , ...... "attachments": [ { "id": xxxxx, "url": "https://www.yammer.com/api/v1/uploaded_files/xxxxx", "web_url": "https://www.yammer.com/mugenup.com/uploaded_files/xxxxx", "type": "image", "name": "xxxx.gif", "original_name": "xxxx.gif", "full_name": "xxxx", "description": "", "content_type": "image/gif", "small_icon_url": "https://c64.assets-yammer.com/images/file_icons/types/picture_orange_39x50_icon.png", "large_icon_url": "https://c64.assets-yammer.com/images/file_icons/types/picture_orange_79x102_icon.png", "download_url": "https://www.yammer.com/api/v1/uploaded_files/xxxx/download", "thumbnail_url": "https://www.yammer.com/api/v1/uploaded_files/xxxx/version/20643071/thumbnail", "preview_url": "https://www.yammer.com/api/v1/uploaded_files/xxxx/preview/xxxx.gif", "large_preview_url": "https://www.yammer.com/api/v1/uploaded_files/xxxx/version/20643071/large_preview/xxxx.gif", "size": 1014474, ...... "height": 278, "width": 500, "scaled_url": "https://www.yammer.com/api/v1/uploaded_files/xxxx/version/20643071/scaled/{{width}}x{{height}}", "image": { "url": "https://www.yammer.com/api/v1/uploaded_files/xxxx/preview/xxxx.gif", "size": 1014474, "thumbnail_url": "https://www.yammer.com/api/v1/uploaded_files/xxxx/version/20643071/thumbnail" }, } ], },......
選択したサムネイル画像を、BLOB形式
でダウンロードする
popup.html
に表示された画像一覧から、画像をクリックしたとき、
download_url
を使って、画像をダウンロードします。
このダウンロード動作は拡張側ではなく、ページ側で行うため、download_url
を tab
側に メッセージとして送信します。
// 画像がクリックされたとき、ダウンロードURLを、コンテンツスクリプトに委譲 $(document).on("click", "a", function(e){ $this = $(this); $this.replaceWith("<img src='./imgs/loading.gif'>"); var download_url = $this.attr("href"); chrome.tabs.getSelected(null, function(tab) { chrome.tabs.sendRequest( tab.id, { download_url: download_url }, function(response){ window.close(); }); }); });
コンテンツスクリプト側では、addListener
を使い、
メッセージをキャッチします。
chrome.extension.onRequest.addListener( function(request, sender, sendResponse) { var download_url = request.download_url; xhr = new XMLHttpRequest(); xhr.open('get', download_url, true); xhr.responseType = 'blob'; xhr.onload = function(){ if(this.status == 200){ var blob = this.response; var ContentDisposition = xhr.getResponseHeader("Content-Disposition"); blob.filename = ContentDisposition.match(/filename="([^"]+)"/)[1]; postGithub(blob); } }; xhr.send(); } );
ここで大事なのは、画像としてダウンロードすることです。
よって、xhr.responseType = 'blob';
を指定しています。
blob
というのは、バイナリ・ラージ・オブジェクトのことであり、コレを使うことで、response
をバイナリとして扱うことができます。
(ここだけ、jQuery
ではなく、XMLHttpRequest
を使っているのは、
jQuery で responseType
を指定する方法が不明だったためです)
画像をGitHub
を経由してS3にアップロードする
GitHub の画像のアップロードは、大変優れた方法です。 GitHub側では、レコードを管理し、大きなバイナリデータはS3に直接アップロードさせます。
(ご存じの方は3ウェイ・ハンドシェイク を 思い浮かべていただければ、わかりやすいと思います。)
GitHub へのアップロードは下記の動作で実行されます。
1つずつ解説します
1. GitHub に post する
name
, size
, content_type
を GitHub に post します。
function postGithub(blob){ var formData = new FormData(); formData.append("name", blob.filename); formData.append("size", blob.size); formData.append("content_type", blob.type); var url = "https://github.com/upload/policies/assets"; $.ajax({ url: url, type: "post", headers: {"X-CSRF-Token": csrf}, data: formData, processData: false, contentType: false }).done(function(data){ postS3(data, blob); }); }
ここでは、ファイル自体は post していないことに注目してください
2. GitHub は、S3 へのアップロードに必要な情報を返す
すると、GitHub は、S3へのアップロードに必要な情報を返してきます。
(一部の箇所は、xxxxx
で隠しています)
{ "upload_url": "https://s3.amazonaws.com/github-cloud", "header": {}, "asset": { "id": xxxxx, "name": "xxxxx.jpg", "size": 59192, "content_type": "image/jpeg", "href": "https://cloud.githubusercontent.com/assets/xxxxx/3711249/fd7cc29e-14ca-11e4-9914-0ca5b063b0c5.jpg", "original_name": "xxxxx.jpg" }, "form": { "key": "assets/xxxxx/3711249/fd7cc29e-14ca-11e4-9914-0ca5b063b0c5.jpg", "AWSAccessKeyId": "xxxxx", "acl": "public-read", "policy": "xxxxx", "signature": "xxxxx", "Content-Type": "image/jpeg", "Cache-Control": "max-age=31557600", "x-amz-meta-Surrogate-Control": "max-age=31557600", "x-amz-meta-Surrogate-Key": "user-xxxxx" }, "asset_upload_url": "/upload/assets/xxxxx" }
3. S3 にアップロードする
返された json の、form
に含まれるデータと、
実際の画像データのBLOB
データを formData
化して、
S3にアップロードします。
function postS3(data, blob){ var formData = new FormData(); for ( var key in data.form ) { formData.append(key, data.form[key]); } formData.append("file", blob); var asset_upload_url = data.asset_upload_url; $.ajax({ url: data.upload_url, type: "post", headers: {"X-CSRF-Token": csrf}, data: formData, processData: false, contentType: false }).done(function(data){ putGitHub(data, asset_upload_url); }); }
4. GitHub に put して、データを更新する(?)
実は、この put がなくても、url にアクセスすれば、画像は見られます。 よって、この put が何のデータを更新しているのか不明なのですが、 何かのデータを更新しているに違いありません(!?)。
(個人的には、S3へのアップロードが完了したフラグを更新しているのではないかと思っています)
function putGithub(data, asset_upload_url){ $.ajax({ url: asset_upload_url, type: "put", headers: {"X-CSRF-Token": csrf}, processData: false, contentType: false }).done(function(data, status, xhr){ writeLGTM(data); }); }
そして、最後に、アップロードされた画像データのURLを textarea に貼り付けて終了です。
function writeLGTM(data){ var lgtm = "![LGTM](" + data.href + ")"; var oldMessage = $("textarea[name='comment[body]']").val(); if(oldMessage != ""){ lgtm = oldMessage + "\n" + lgtm; } $("textarea[name='comment[body]']").val(lgtm); sendResponse({}); }
画像をアップロード、というと、一回のPOSTで全部処理してしまいそうですが、 RESTful を遵守することで、3アクションにはなっていますが、シンプルな構成になっています。 さすが GitHub といったところでしょうか。
まとめ
さて今回はYammer に投稿したLGTMな画像を、GitHub に POST する Chrome 拡張を作ってみた
というテーマでした。
動作は概要図を再掲します。
今回わかったことは、下記の3点です。
- Chrome 拡張 は表示中のページに介入できる
- ajax で画像を扱うときは、
xhr.responseType = 'blob';
を使うと便利 - GitHub の画像アップロードは、3アクションの
RESTful
で美しい
まず、Chrome 拡張 は表示中のページに介入できる
というのは、本当に怖いことです。
yammer
や、github
へのログイン認証についての、説明が無いことに気づかれたかもしれません。
Chrome拡張はブラウザのセッションを使うことができるので、ログインさえしていれば、拡張側では処理が必要ないのです。
自分がログインしているサービスに対して、バックグラウンドで、Chrome拡張が通信することができてしまいます。
例えば、Facebook
にログインしている Chrome に、勝手に投稿させる
という javascript は簡単に書くことができそうです。野良拡張には本当に気をつけましょう。
気をつけ方としては、manifest.json
の "permissions":
を確認することです。
ここに記載があるサイトに関して、Chrome拡張は権限を持つので、オカシイな?と思ったら、使うのを止めましょう(そもそも使わないですよね)。
(一番安心なのは、ソースコードを全部読んでしまうことです。unzip で解凍することができます)
unzip hoge.crx
次に、responseType ですが、普段ajax
はjQuery
を使うことが多いため、今回初めて知りました。xhr.responseType
を使うと、返り値を制御するとができますが、jQuery ではどうやると良いのでしょうか?
最後に、GitHub の画像の扱いはスマートでした。DBとストレージが異なる、というのは、昨今当たり前なので、大変参考になりました。皆さんもこのように実装されてはいかがでしょうか?(もうやってる?)
ということで、Chrome拡張を作ってみた、というお話でした。
拡張は、html+css+js なので、WEBエンジニアならとても簡単に作ることができます。是非、作ってみることをおすすめします。きっと新しい発見があると思います。
ruby は メソッドに return が不要なのではなく、元々そうなっているだけ
皆さん、こんにちは。MUGENUP の osada です。 いきなりですが、問題です。
def if_expression(flag) if flag "NG" else "OK" end end
Ruby は 最後に評価された値が返る
と言われていますね。
では、上記のメソッドで
if_expression false
の返り値は、何ですか?
はい、正解です。OK
が返ってきますね。
ちょっと長いので、リファクタリングしましょう。
def if_modifier(flag) "OK" "NG" if flag end
さてもう一度。
if_modifier(false)
の返り値は、何ですか?
Ruby は 最後に評価された値が返る
と言われていましたよね?
はい。正解です。nil
が返ってきますね。
え、"OK"じゃないのかって?
いいえ、後置if は if とは全く違います
。
右辺の条件が成立する時に、左辺の式を評価してその結果を返します。 条件が成立しなければ nil を返します。 (http://docs.ruby-lang.org/ja/2.1.0/doc/spec=2fcontrol.html)
という流れでreturn を書けばこんな混乱しないのに
という話がでました。
いやいや、return
とか不要じゃない?という立場でこの記事を書いています。
ruby は 最後に評価される値
が返る、と言われますが、それはどのような意味なのでしょうか?
そんな本日は ruby の挙動についてのお話です。 ターゲットは、アセンブラに興味がある人です(アセンブラを使いこなす人は、対象外でお願いします (笑))
if と、if 修飾子 (後置 if) の違い
まず if と if 修飾子を使ったコードを書きます。
# return_if.rb def if_expression(flag) if flag "NG" else "OK" end end def if_modifier(flag) "OK" "NG" if flag end
そしておもむろに、ディスアセンブラを書きます(!)。
# disasm.rb iseq = RubyVM::InstructionSequence.compile_file ARGV.first, false print iseq.disasm
さきほどのファイルを食わせます
[master]~/projects/ruby_test/practice/if_expression: ruby disasem.rb return_if.rb == disasm: <RubyVM::InstructionSequence:<main>@return_if.rb>============ 0000 putspecialobject 1 ( 20) 0002 putspecialobject 2 0004 putobject :if_expression 0006 putiseq if_expression 0008 send <callinfo!mid:core#define_method, argc:3, ARGS_SKIP> 0010 pop 0011 putspecialobject 1 ( 28) 0013 putspecialobject 2 0015 putobject :if_modifier 0017 putiseq if_modifier 0019 send <callinfo!mid:core#define_method, argc:3, ARGS_SKIP> 0021 leave == disasm: <RubyVM::InstructionSequence:if_expression@return_if.rb>===== local table (size: 2, argc: 1 [opts: 0, rest: -1, post: 0, block: -1, keyword: 0@3] s1) [ 2] flag<Arg> 0000 getlocal flag, 0 ( 21) 0003 branchunless 11 0005 jump 7 0007 putstring "NG" ( 22) 0009 jump 13 ( 21) 0011 putstring "OK" ( 24) 0013 leave == disasm: <RubyVM::InstructionSequence:if_modifier@return_if.rb>======= local table (size: 2, argc: 1 [opts: 0, rest: -1, post: 0, block: -1, keyword: 0@3] s1) [ 2] flag<Arg> 0000 getlocal flag, 0 ( 30) 0003 branchunless 11 0005 jump 7 0007 putstring "NG" 0009 jump 12 0011 putnil 0012 leave
初めの ブロックはメソッド定義なので飛ばしまずが、 なんとなく気分はわかっていただけると思います。
2番目の if_expresson
ブロックと、
3番目の if_modifier
ブロックを見ていくことにしましょう。
if_expression
2番めのブロックは、if_expression のコードです。
== disasm: <RubyVM::InstructionSequence:if_expression@return_if.rb>===== local table (size: 2, argc: 1 [opts: 0, rest: -1, post: 0, block: -1, keyword: 0@3] s1) [ 2] flag<Arg> 0000 getlocal flag, 0 ( 21) 0003 branchunless 11 0005 jump 7 0007 putstring "NG" ( 22) 0009 jump 13 ( 21) 0011 putstring "OK" ( 24) 0013 leave
- 0番で
flag
変数から値をとりだします。 - 3番で、それが
nil, false
でなければ、11番に飛びます。
if
なのに、branchunless
というのは面白いですね。
これは、否定を確認した方が速いからでしょう。
flag
が false
のとき、
- 11番は、"OK"を スタックに積みます。
- 13番で
leave
します。
flag
が true
のとき、
- 5番で、
jump 7
します。 - 7番で "NG" を スタックに積みます。
- 9番で
jump 13
します。 - 13番で
leave
します。
if_modifier
3番めのブロックは、if_modifier のコードです。
== disasm: <RubyVM::InstructionSequence:if_modifier@return_if.rb>======= local table (size: 2, argc: 1 [opts: 0, rest: -1, post: 0, block: -1, keyword: 0@3] s1) [ 2] flag<Arg> 0000 getlocal flag, 0 ( 30) 0003 branchunless 11 0005 jump 7 0007 putstring "NG" 0009 jump 12 0011 putnil 0012 leave
- 0番で
flag
変数から値をとりだします。 - 3番で、それが
nil, false
でなければ、11番に飛びます。 - 11番で
putnil
でnil
をスタックに積みます - 12番で
lreave
します。
はい、成立しないときは、nil が返りますね。仕様ですから仕方ないですよね。
あれ? "OK" は、どこに行ったのでしょう?
putstring
すらないとか、かわいそうですね。
return が不要な理由
ruby に return が不要な理由は、もうお分かりですね。
というかそもそも、return
ではなくleave
ですね。
ruby としては、メソッドの元から去る(leave
)だけで、
値を返し(return
)ているつもりはなさそうです。
return
は単に、メソッドから去るタイミングを指定しているだけなので、
最後に書く必要はない、ということなのでしょう。
あれ?そんなのどの言語も一緒じゃん! と思われません?
ではここで、LL界の委員長 python
にご出座いただきましょう。
python は return が必須です!
pythonは return が必須です。
def if_expression(flag): if flag: return "NG" else: return "OK" import dis dis.dis(if_expression)
[master]~/projects/python_test: python if_expression.py 2 0 LOAD_FAST 0 (flag) 3 POP_JUMP_IF_FALSE 10 3 6 LOAD_CONST 1 ('NG') 9 RETURN_VALUE 5 >> 10 LOAD_CONST 2 ('OK') 13 RETURN_VALUE 14 LOAD_CONST 0 (None) 17 RETURN_VALUE
左端はソース行なので、無視してください。
- 0番で
flag
から ロードします - 3番で、それが FALSE なら、 10番にジャンプします
これも、false
をチェックするのはお決まりですね。
flag
が true
のとき、
- 6番で "NG" をスタックに積みます
- 9番で、
RETURN_VALUE
します(return
だよ!やったね!)
flag
が true
のとき、
- 10番で、"OK" をスタックに積みます。
- 13番で、
RETURN_VALUE
します
あれ?2行残っていますね。
- 14番で、
None
を スタックに積みます。 - 17番で、
RETURN_VALUE
します
これは、python
の関数が、return がないときはNoneを返す
という仕様になっているからです。
python
はインデントがブロックを表す
ので、
この関数自体の返り値が書かれていません。
よって、最後に None
を返すコードが暗黙的に追加されています。
さて、動作はruby
とほとんど同じですね。
では、return
を書かないとどうなるか見てみましょう。
def if_expression(flag): if flag: "OK" else: "NG" import dis dis.dis(if_expression)
[master]~/projects/python_test: python if_expression.py 17 0 LOAD_FAST 0 (flag) 3 POP_JUMP_IF_FALSE 9 18 6 JUMP_FORWARD 0 (to 9) 20 >> 9 LOAD_CONST 0 (None) 12 RETURN_VALUE
何もない……。
スタックに積んだ物が返る、というのはどの言語でも一緒ですが、
return
をどのように取り扱うかで、コードが異なる、ということですね。
まとめ
if 修飾子
は 成立しないときnil
を返します- メソッドは最後にスタックに積まれた値を返します
RubyVM::InstructionSequence
で VM のコードが読めますif
はbranchunless
を判定しますruby
のreturn
は、メソッドの返りのタイミングの指定です。python
のreturn
は、関数の返り値の指定です。
ということで、ruby
にとって、return
は メソッドの返り値の指定ではなく、
どのタイミングでメソッドからleave
するかの指定、という意味なので、
実質return
が不要になる、ということのようです。
さて、ruby
に return
必要ですか ?
メソッドの値を返す場合は、必ずreturnを使用する。
それと return なしのほうがちょっとだけ効率もいい。 それはなぜかというと RubyHackingGuide でも見てくれればわかるのだが、 return は結局 longjmp だからだ。
LoveRubyNet Wiki: RubyCodingStyle
Avoid return where not required.
styleguide/RUBY-STYLE at master · chneukirchen/styleguide
……あれ〜??
(おまけ) 人生、宇宙、すべての答え
ruby の ソースを追いかけていて、人生の答えを知りました。 さすが ruby ですね。
/** @c joke @e The Answer to Life, the Universe, and Everything @j 人生、宇宙、すべての答え。 */ DEFINE_INSN answer () () (VALUE ret) { ret = INT2FIX(42); }
http://svn.ruby-lang.org/cgi-bin/viewvc.cgi/trunk/insns.def?view=markup
参考
RailsプロジェクトのRSpec3.0.0へのアップデート
皆さん、こんにちわ。MUGENUPの narikazu です。6月2日にRSpec 3.0.0がリリースされました(Myron Marston » RSpec 2.99.0 and 3.0.0 have been released!)。RSpec 3.0.0での変更点はMyron Marston » Notable Changes in RSpec 3あるいは、その日本語訳のRSpec 3の重要な変更 - 有頂天Rubyをご参照下さい。
ここでは、弊社Railsプロジェクト(Rails 3.2.18)でのRSpec3.0.0へのアップデート手順を記述いたします。この記事が皆さんのアップデート時の参考になれば幸いです。
アップデート手順
アップデート手順は以下の記事を参考に致しました。
- 既存のRailsプロジェクトをRSpec 3.0にアップグレードする際の注意点 ~RSpec 3は怖くないよ!~ - Qiita
- Ruby - RSpecの最新の動向・RSpec 3へのアップグレードガイド - Qiita
正直、ほとんど上記記事と同じ手順を踏んでいます(汗)。しかし、異なる点もあるので、以下手順の大まかな流れをご説明します。
- 現在のテストが全てsuccessすることを確認
- rspec-railsのバージョンを2.99にアップデート
- 2.99の状態でテストを実行
- テスト結果のdeprecationを全て修正(transpecと必要なGemのインストールおよび手作業)
- rpsec-railsのバージョンを3.0.1にアップデート
- 3.0.1の状態でテストを実行
- テスト結果のdeprecationを全て修正(transpecと手作業)
以下では、各手順について詳細に記述していきます。
現在のテストが全てsuccessすることを確認
弊社では、CircleCIへブランチをpushすることをトリガーにテストを実行しています。以前はローカル環境にて並列でテストを高速でブン回すparallel_testsを使用しておりました。CircleCIはテスト結果がGithub上で表示されるので、とても便利ですね〜。少し話は逸れましたが、私の場合はRSpecアップデート用のブランチを作成し、pushしている間にrspec-railsのバージョンを上げる作業をしていました。
rspec-railsのバージョンを2.99にアップデート
Gemfileでrspec-railsのバージョンを2.99.0と指定し、bundle update rspec
を実行します(bundle update rspec-rails
ではないので注意)。
# Gemfile group :test, :development do gem 'rspec-rails', '~> 2.99.0' # ... end
2.99の状態でテストを実行
RSpec 2.99でどのようなdeprecation出るか確認するために、全体テストを行います。私の場合はRSpec 2.99アップデートのcommitを積んでGithubにブランチをpushし、CircleCIがテストをブン回してくれました。
テスト結果のdeprecatedを全て修正(transpecと必要なGemのインストールおよび手作業)
2.99で出たdeprecationを放置して、3.0.0に上げるとそのテストは3.0.0に準拠した記述方法ではないのでテストは落ちてしまいます。よって、出てきたdeprecationは全てこのタイミングで修正しましょう。ちなみに、私は258個のdeprecationがありました。
2.99でのdeprecationの修正は以下の流れで行いました。
- RSpec3.0で外部化されたGemのインストール
- GemのTranspecを使って全自動でRSpec3.0系の記述方法に移行
- Transpecで対応できなかった箇所を手作業で修正
以下で各手順について詳細にご説明します。
RSpec3.0で外部化されたGemのインストール
`mock_model` is deprecated. Use the `rspec-activemodel-mocks` gem instead.
上記のdeprecationが出力された方はいらっしゃらないでしょうか?RSpec2.0系で使用できたmock_model
はRSpec3.0では使用できなくなり、rspec-activemodel-mocks
として外部Gemになりました。よって、このgemをGemfileに記述し、bundle install
でインストールしましょう。
# Gemfile group :test do gem 'rspec-activemodel-mocks' # ... end
また下記のdeprecationが出力された方もいらっしゃるのではないでしょうか?
`expect(collection).to have(1).attachment` is deprecated. Use the rspec-collection_matchers gem or replace your expectation with something like `expect(collection.size).to eq(1)`
RSpec 2系でcollectionの数を検証するためにexpect(object).to have(2).items
という構文がありました。RSpec 3ではこの構文はなくなり、expect(object.items.size).to eq 2
と書く必要があります。個人的には、RSpec 2系の書き方は自然言語の英語のように書けて気に入っているので、従来の書き方を続けたいと思いました。そのような人のために、rspec-collection_matchersというGemが存在します。これもGemfileに記述し、bundle install
を使ってインストールしましょう。
# Gemfile group :test do gem "rspec-collection_matchers" # ... end
弊社のRailsプロジェクトでは使用していませんでしたが、its
記法もRSpec 3では使用できなくなり外部Gem化(rspec/rspec-its)しているようです。必要な方はインストールするとよいでしょう!
GemのTranspecを使って全自動でRSpec3.0系の記述方法に移行
RSpec2系を3.0の記述方法にコマンド一発で自動で移行してくれる神Gem transpecがあります。こちらをインストールし、コマンドでサクッと3.0の記述方法に書き変えましょう。インストールはgem i transpec
で行います。使い方も簡単で私の場合はtranspec --no-explicit-spec-type --keep have_items
というコマンドを打って一気に書き換えました。
注意していただきたいのは--no-explicit-spec-type
と--keep have_items
オプションをつけていることです。
--no-explicit-spec-type
オプション
2系ではspecファイルが配置されているディレクトリから自動的にspecのタイプ(model, controller, feature等)を判別してくれました。しかし、RSpec 3ではこの機能がオフになっています。よって、Rspec 3ではspecタイプを明示する必要があります。引き続き配置しているディレクトリに応じてspecタイプを自動判別させるためには、spec_helper.rb
にinfer_spec_type_from_file_location!
オプションを付けます。Transpecは自動的にspecタイプのメタデータを追加します。しかし、2系と同じ挙動が気に入っているので、--no-explicit-spec-type
オプションを指定して実行することで、specタイプのメタデータ追加が無効になり、代わりにinfer_spec_type_from_file_location!
を自動的に追加します。
--keep have_items
オプション
expect(object).to have(2).items
構文を引き続き使用するべくrspec-collection_matchersのGemを入れた方は、Transpecでhave().item
記法を変更させないように--keep have_items
オプションを付けましょう。
Transpecで対応できなかった箇所を手作業で修正
いくつかTranspecで書換えを行った後もdeprecationが残っていたので、手で書き換えました。ここでは全てのdeprecationを修正しておきましょう。
rpsec-railsのバージョンを3.0.1にアップデート
2.99.0にアップデートした時と同様にGemfileでrspec-railsのバージョンを3.0.1と指定し、bundle update rspec
を実行します(bundle update rspec-rails
ではないので注意)。
# Gemfile group :test, :development do gem 'rspec-rails', '~> 3.0.1' # ... end
3.0.1にアップデート後、再度全テストを通します。
テスト結果のdeprecationを全て修正(transpecと手作業)
3.0.1アップデート後にテストを実行すると以下のエラーで落ちました。
`raise_too_low_error': You are using capybara 2.1.0. RSpec requires version >= 2.2.0. (RSpec::Support::LibraryVersionTooLowError)
Gemのcapybaraのバージョンが低いと言われたので、bundle update capybara
でアップデートしました。
また以下のようなdeprecationが表示されました。
The Fuubar formatter uses the deprecated formatter interface not supported directly by RSpec 3. To continue to use this formatter you must install the `rspec-legacy_formatters` gem, which provides support for legacy formatters or upgrade the formatter to a compatible version.
これはテストの進捗状況を可視化するgem fuubar(Ruby - Rspecのテスト進捗状況が可視化できるFuubarがいい感じ! - Qiita)のバージョンが低いため表示されます。Rspec 3に対応した2.0.0.rc1を指定しbundle update fuubar
でアップデートしました。
# Gemfile group :test, :development do gem 'fuubar', '~> 2.0.0.rc1' end
そして、再度transpecを用いてdeprecationを消していきます。
なぜかというと2系のstub_chain
記法がallow(obj).to receive_message_chain()
という記法になるのですがRspec 3.0からでないと使えないため、3.0にアップデート後もtranspecを使用します。前回と同様transpec --no-explicit-spec-type --keep have_items
コマンドを実行致しました。
これでほとんどのdeprecationが消えました。
また今回のRailsプロジェクトでは本来は通るfeatureテストが時々落ちることがあるので、一度落ちたテストをもう一度実行するモンキーパッチ(sorah / auto_retry.rb)を使わせていただいていました。しかし、Rspec3.0アップデートのapi変更でエラーが出るようになっていたので、少し書き換えました。以下のコードにより、featureスペックかit "hoge", auto_retry: true do ... end
としているテストは落ちるともう一度だけテストを実行してくれます。
# spec/support/auto_retry.rb module RSpec module Core class Example def run_with_retry(example_group_instance, reporter) @retrying_count = 0 succeeded = run_without_retry(example_group_instance, reporter) unless succeeded return finish_without_retry(reporter) unless retry_needed? $stderr.puts "[RETRY] #{self.location}: #{self.full_description}" @retrying_count += 1 # Initialize itself (originally this has done in ExampleGroup#run_example) @exception = nil # before_all_ivarsをbefore_context_ivarsに書き換え example_group_instance = example_group_instance.class.new.tap do |group| group.class.set_ivars(group, group.class.before_context_ivars) end succeeded = run_without_retry(example_group_instance, reporter) end succeeded end alias_method :run_without_retry, :run alias_method :run, :run_with_retry private def finish_with_retry(reporter) if (@retrying_count || 0) < 1 && @exception false else finish_without_retry(reporter) end end alias finish_without_retry finish alias finish finish_with_retry def retry_needed? # 元々は@optionsで[:auto_retry]としていたが、metadata[:auto_retry]に書き換え metadata[:auto_retry] == true || file_path =~ /spec\/features/ end end end end
その他にはguardのバージョンが低くて動かないようになっていたので、最新のものにアップデートしRspec3でも動くようにしました。
まとめ
以上、弊社のRailsアプリでのRspec3.0へのアップデート手順を記述してみました。作業自体は2〜3時間で終わりました。transpecという神Gemがあるので思ったよりも大変ではなかったですので、皆さんもアップデートしてはいかがでしょうか?
またここで網羅できなかったことおよび、基本的な手順は以下の記事から得ることができます。
【MySQL】`SELECT id FROM news ORDER BY published_at DESC` と `SELECT * FROM news ORDER BY published_at DESC` では結果が異なることについて
皆さん、こんにちは。 暖かくなってきたので Tシャツとサンダルで通勤しちゃったりする方、 MUGENUP の osada です。 服装に気を使わなくてよい(わけではないのですが)というのは、 エンジニアの利点の一つですよね。
さて、先日、こんな現象が持ち込まれました。
「下の2つのコードで、結果が異なるんですが……?」
News.order("published_at DESC").map(&:id) News.order("published_at DESC").select(:id).map(&:id)
今日はMySQL の order で * は特別な動きをする(ようだ)
というお話です。
対象は、上記の2つの結果が異なる理由が分からない人
です。
Rails ではなく、MySQL レベルの挙動の違いだった
まず疑ったのが、Rails で挙動を書き換えているんじゃないか?
ということです。
select
をハックして、SQLレベルでは、order
が書き換わっているのでは?
しかし、結果はNO
でした。
[2] pry(main)> News.order("published_at DESC").map(&:id) News Load (4.4ms) SELECT `news`.* FROM `news` ORDER BY published_at DESC => [10, 11, 12, 13, 14, 15, 16, 9, 8, 7, 6, 5, 4, 3, 2, 1] [3] pry(main)> News.order("published_at DESC").select(:id).map(&:id) News Load (0.5ms) SELECT id FROM `news` ORDER BY published_at DESC => [15, 14, 13, 12, 11, 10, 16, 9, 8, 7, 6, 5, 4, 3, 2, 1]
試しに、発行されたSQL
を、db console
から叩きましたが、結果は同じでした。
10 から 15 までの順番が、全く逆順になっているのです。
そこに注目してみると、 id が 10 から 15 のレコードの、published_at は 値が同じ でした (これはバグだったので、プルリクで止めました)。
そういえば、ORDER BY
で対象カラムの値が同じとき、MySQL
はどのような挙動を示すのでしょうか?
MySQL のオプティマイザトレース
幸いにも、MySQLには、実行計画を見る仕組みが備わっていました。
[D14] MySQL 5.6時代のパフォーマンスチューニング *db tech showcase 2013 Tokyo
こちらの 17ページ
の通りにやってみます。
mysql> set session optimizer_trace='enabled=on,one_line=off'; Query OK, 0 rows affected (0.17 sec) mysql> set session optimizer_trace_max_mem_size=102400; Query OK, 0 rows affected (0.01 sec) mysql> SELECT id FROM `news` ORDER BY published_at DESC; ...... mysql> select * from information_schema.optimizer_trace\g; ...... | SELECT `news`.id FROM `news` ORDER BY published_at DESC | { "steps": [ { "join_preparation": { "select#": 1, "steps": [ { "expanded_query": "/* select#1 */ select `news`.`id` AS `id` from `news` order by `news`.`published_at` desc" } ] } }, { "join_optimization": { "select#": 1, "steps": [ { "table_dependencies": [ { "table": "`news`", "row_may_be_null": false, "map_bit": 0, "depends_on_map_bits": [ ] } ] }, { "rows_estimation": [ { "table": "`news`", "table_scan": { "rows": 16, "cost": 1 } } ] }, { "considered_execution_plans": [ { "plan_prefix": [ ], "table": "`news`", "best_access_path": { "considered_access_paths": [ { "access_type": "scan", "rows": 16, "cost": 4.2, "chosen": true, "use_tmp_table": true } ] }, "cost_for_plan": 4.2, "rows_for_plan": 16, "sort_cost": 16, "new_cost_for_plan": 20.2, "chosen": true } ] }, { "attaching_conditions_to_tables": { "original_condition": null, "attached_conditions_computation": [ ], "attached_conditions_summary": [ { "table": "`news`", "attached": null } ] } }, { "clause_processing": { "clause": "ORDER BY", "original_clause": "`news`.`published_at` desc", "items": [ { "item": "`news`.`published_at`" } ], "resulting_clause_is_simple": true, "resulting_clause": "`news`.`published_at` desc" } }, { "refine_plan": [ { "table": "`news`", "access_type": "table_scan" } ] } ] } }, { "join_execution": { "select#": 1, "steps": [ { "filesort_information": [ { "direction": "desc", "table": "`news`", "field": "published_at" } ], "filesort_priority_queue_optimization": { "usable": false, "cause": "not applicable (no LIMIT)" }, "filesort_execution": [ ], "filesort_summary": { "rows": 16, "examined_rows": 16, "number_of_tmp_files": 0, "sort_buffer_size": 14544, "sort_mode": "<sort_key, additional_fields>" } } ] } } ] } | 0 | 0 | .....
凄い色々でてきました。 一つ一つ見ていくと、大変興味深そうですが、 今回は、違いだけに注目したいので、 さっそくもう一つのSQLの実行計画も確認します。
mysql> SELECT * FROM `news` ORDER BY published_at DESC; mysql> select * from information_schema.optimizer_trace\g;
すると、ある一点だけが異なりました。
"filesort_summary": { "rows": 16, "examined_rows": 16, "number_of_tmp_files": 0, "sort_buffer_size": 10908, "sort_mode": "<sort_key, rowid>" }
filesort_summary
の sort_mode
です
SQL | sort_mode |
---|---|
SELECT id FROM newsORDER BY published_at DESC; |
"<sort_key, additional_fields>" |
SELECT * FROM newsORDER BY published_at DESC; |
"<sort_key, rowid>" |
SELECT *
のときは、sort_key
の他に rowid
が使用されるようです。
つまり、published_at
が同じときは、rowid
でソートされるのですね。
MySQL の rowid ?
この row_id については、ググると下記の情報が見つかりました。
8.2.1.15 ORDER BY Optimization
The sort_mode value provides information about the algorithm used and the contents of tuples in the sort buffer:
- <sort_key, rowid>: Sort buffer tuples contain the sort key value and row ID of the original table row. Tuples are sorted by sort key value and the row ID is used to read the row from the table.
<sort_key, additional_fields>: Sort buffer tuples contain the sort key value and columns referenced by the query. Tuples are sorted by sort key value and column values are read directly from the tuple.
<sort_key, rowid>: ソートバッファタプル には、ソートキー と テーブルの行id が含まれる. タプルは ソートキーと、テーブルから読まれた行IDによって、ソートされる。
- <sort_key, additional_fields>: ソートバッファタプルには、ソートキーと、クエリで参照されるカラムが含まれる。タプルは、タプルから直接読み取られたソートキーとカラムによってソートされる。
……なかなか難しいですね!
これ以上の資料が見つからなかったため、挙動の類推でしかないのですが、
rowid のときは、元のテーブルの順序をそのまま維持する
という動作なのではないかと思います。
実際、自分で比較アルゴリズムを書くならば、 同値のときに、わざわざ swap するプログラムにはしないと思うのです。
# 昇順 (後ろほど、値が大きい) for(i = 0, length = tuples.length; i < length - 1; i++){ if(tuples[i + 1] < tuples[i]){ tmp = tuples[i]; tuples[i] = tuples[i + 1]; tuples[i + 1] = tuples[i]; } else if(tuples[i + 1] == tuples[i]){ # わざわざここに swap を書いたりしない。 } }
一方、クエリ上に カラムが存在した場合、当然ながらそれはソートします。
ということで、*
と、それ以外で、結果が異なる、ということになったようです。
インデックスを貼るとどうなるか?
さてfilesort
をみたのなら、当然のようにインデックスを貼りたくなるはずです。
mysql> alter table news add index published_at_idx (published_at); Query OK, 0 rows affected (0.06 sec) Records: 0 Duplicates: 0 Warnings: 0 mysql> SELECT id FROM `news` ORDER BY published_at DESC; ...... mysql> select * from information_schema.optimizer_trace\g; ...... { "refine_plan": [ { "table": "`news`", "access_type": "index_scan" } ] }, { "reconsidering_access_paths_for_index_ordering": { "clause": "ORDER BY", "index_order_summary": { "table": "`news`", "index_provides_order": true, "order_direction": "desc", "index": "published_at_idx", "plan_changed": true, "access_type": "index_scan" } } } ...... mysql> SELECT * FROM `news` ORDER BY published_at DESC; ...... mysql> select * from information_schema.optimizer_trace\g; ...... { "refine_plan": [ { "table": "`news`", "access_type": "table_scan" } ] }, { "reconsidering_access_paths_for_index_ordering": { "clause": "ORDER BY", "index_order_summary": { "table": "`news`", "index_provides_order": false, "order_direction": "undefined", "index": "unknown", "plan_changed": false } } } ...... "filesort_summary": { "rows": 16, "examined_rows": 16, "number_of_tmp_files": 0, "sort_buffer_size": 10908, "sort_mode": "<sort_key, rowid>" }
*
ではインデックスが使われず、id
ではインデックスが使われました。
一体どうゆうことなんでしょうか?
MySQL :: MySQL 5.1 リファレンスマニュアル :: 6.2.12 ORDER BY最適化
によれば、index
が貼られた カラムの order
ならば、index
が使われるはずですが……?
次のクエリではインデックスを使用して ORDER BY部分を解決します。
SELECT * FROM t1 ORDER BY key_part1,key_part2,... ;
レコードを全件取得しているので、テーブルスキャンが最適だ、ということなのでしょうか?
試しに LIMIT 10 をつけてみると、plan_changed
が発動していました。
なるほど、絞込をするときには、インデックスが使われるのですね。
mysql> SELECT * FROM `news` ORDER BY published_at DESC LIMIT 10; ...... { "reconsidering_access_paths_for_index_ordering": { "clause": "ORDER BY", "index_order_summary": { "table": "`news`", "index_provides_order": true, "order_direction": "desc", "index": "published_at_idx", "plan_changed": true, "access_type": "index_scan" } }
単に ORDER BY でインデックスを貼っても効果がないこともあるようなので、 必ず確認して使っていくようにしたいものです。
このindex
周りは奥が深いので、別の機会に
、とさせていただこうと思います。
「待てないよ!」という方は、漢(オトコ)のコンピュータ道 が絶賛、オススメです!
まとめ
MySQL
のORDER BY
は、ソート指定カラムの値が同値のときに、クエリによって、結果が異なることがあります。SELECT * FROM
のときは、rowid
が使われるので、同値のときは、テーブルへ INSERT された順がそのままです。SELECT some_column FROM
のときは、ORDER BY
の指定カラム以外に、some_column
がソート対象に含まるため、それらがソートに使われます。- ORM を使っている人は、意識しづらいので、気をつけましょう。
- 同値が疑われるときは、必ず id でも order しましょう.
News.order("published_at DESC").order("id DESC").map(&:id)
ということで、思わぬところで、order 順が違ってしまった、という記事でございました。
後書き
なお、使用しているMySQL
は、5.6.17
です
Server version: 5.6.17 Homebrew
紙幅の関係上、order の内容を文字列 にしましたが、arel_table
を使ったほうがせくしーです。
News.order(News.arel_table[:published_at].desc)
ところで、「Oracle には row_id があり、MySQL にはないので、テーブルの最後のレコードを見つけるのが大変だ」 という話を、昔同僚としたことがあるのですが、MySQL はいつから row_id が使えるようになったのでしょうか? Oracle に吸収されてからですか?
gem の内部を書き換える2つの方法 + おまけ(後から明示的に dependent: :destroy を止める方法 Rails3 限定)
皆さん、こんにちは。MUGENUP の osada です。 いきなりですが、
gem の内部を書き換えたい!
と思ったことはありませんか?
globalize
というgem
が、内部で
has_many :translations, dependent: :destroy
を実行するのですが、このdpendent: :destroy
を止めたい、という要望から発生した、
gem
の内部の挙動をオーバライドする方法のご紹介です。
想定する読者は、ruby
を使い始めたばかりで、オープンクラス
やメタプログラミング
を使ったことがない人です。
概要
dpendent: :destroy
を止める方法として、下記の方法を紹介します。
オープンクラス
を使ったパッチを当てるmodule_eval
を使ってパッチを当てる- has_many を再定義する
- (
Rails 3.2
) destroy 用のメソッドをオーバーライドする - (
Rails 3.2
) destroy 用の callback を停止する
gem のクローンは最終手段
gem の挙動の一部を書き換えたいからといって、 gem を app などにコピーして使うのは、悪手だと考えています。 理由は、 バージョンアップに追従できない からです。 例えば、重要なセキュリティ修正 があった場合、それを取り込むのは大変難しくなるでしょう。
それよりも、gem をクローンし、パッチを宛てたものを 新しい gem として読み込む方が適切です。 この場合、クローン元であるオリジナルの gem をマージしてくることで、 バージョンアップに追従することができます。
しかしこれも、マージなどのメンテナンスコストを考えると最終手段だと考えます。
(もし、大きな修正が必要である場合、gem を継承して拡張するほうが適切でしょう)
オープンクラスを使ったモンキーパッチを当てる
軽度な修正であれば、モンキーパッチを当てる方が簡単です。
ruby の オープンクラス
は、拡張として使うことができます。
オープンクラスについては、 シンボルでも文字列でもアクセス可能なHashを使おう!ActiveSupport {Hash編} - MUGENUP技術ブログ でも触れました。
同名でクラス定義を行うと、クラスの再定義(上書き)ではなく、クラスへの追加拡張になる仕組み。
です。 つまりそれは、gem の中で定義したものであっても、app 側で再定義できる、ということです。
今回書き換えたい globalize
の has_many
は、vendor/bundle/gems/globalize-3.1.0/lib/globalize/active_record/act_macro.rb
の、def setup_translates!(options)
に定義されています。
module Globalize module ActiveRecord module ActMacro ...... def setup_translates!(options) ...... has_many :translations, :class_name => translation_class.name, :foreign_key => options[:foreign_key], :dependent => :destroy, :extend => HasManyExtensions, :autosave => false ...... end end ...... end end
まずこのファイルを、config/initializer/extensions/globzlize/active_record/act_macro.rb
にコピーし、setup_translates!
以外を削除、has_many
から dependent: :destroy
を
削除します。
module Globalize module ActiveRecord module ActMacro protected def setup_translates!(options) ...... has_many :translations, :class_name => translation_class.name, :foreign_key => options[:foreign_key], :extend => HasManyExtensions, :autosave => false ...... end end end end
以上、終了です。簡単ですね!
別の場所でクラスを開きなおして、メソッドを再定義するだけで良い のですから、
わざわざ gem
をコピーしたり、クローンしたりする必要はありません。
メソッドチェインを使用する。
上記のメソッドを再定義するタイプのパッチは、非常に簡単ですが、
alias_method_chain
などのメソッドに紐づいた実装
を切ってしまう、という欠点があります。
どこかで誰かが、さらにパッチを当てているかもしれません。
できれば、メソッドチェインタイプのパッチを宛てる方が良いでしょう
module Globalize module ActiveRecord module ActMacro def setup_translates_with_stop_dependent_destroy!(options) setup_translates_without_stop_dependent_destroy!(options) has_many :translations, :class_name => translation_class.name, :foreign_key => options[:foreign_key], :extend => HasManyExtensions, :autosave => false end alias_method_chain :setup_translates!, :stop_dependent_destroy end end end
実際、このglobalize
は globalize-versioning
という拡張gemを用意しており、
このタイプの拡張でなければ、同時に使うとエラーになってしまいます。
module_eval を使ってパッチを当てる
さて、alias_method_chain
であれば、オープンクラスである必要はなさそうな気がします。
それがもう一つの方法、module_eval
を使う方法です。
config/initializers/globalize_patch.rb
に先ほどのパッチをコピーします。
先ほどとは異なり、名前空間が異なるので、HasManyExtensions
は、
::Globalize::ActiveRecord::HasManyExtensions
のように宣言する必要があります。
Globalize::ActiveRecord::ActMacro.module_eval do def setup_translates_with_stop_dependent_destroy!(options) setup_translates_without_stop_dependent_destroy!(options) has_many :translations, :class_name => translation_class.name, :foreign_key => options[:foreign_key], :extend => ::Globalize::ActiveRecord::HasManyExtensions, :autosave => false end alias_method_chain :setup_translates!, :stop_dependent_destroy end
以上、終了です。簡単ですね!
といっても、これらはコードを読む側
からすると、
どこで何が再定義されているかわからない 、
知らないところで何かが勝手に変わっている 、という意味で魔術的手法です。
用法・用量を守ってお使いください
オープンクラスと module_eval(class_eval) の違い
さて、この2つはどう違うのでしょうか?
みんな大好き stackoverflow
に、回答がありましたので、引用します。
ruby - class_eval and open classes - Stack Overflow
reopen class will not inform you (but class_eval will raise error) if the existing class does not exist or not loaded.
class_eval
は拡張元のクラスがないとき エラーになる。オープンクラスは何も教えてくれない。
オープンクラスというのは、クラスを定義する際の特徴的な動き、というだけのことであり、 そもそも拡張を意図としている訳ではない、ということですね。
特徴的なオープンクラス
他の言語では、module_eval のような拡張の仕方がメインなのではないでしょうか。
例えば、python であれば、後からクラスにメソッドを追加するときは、定義したメソッドを追加する、というコードになります。
まず、オープンクラスではないので、class A
を再定義すれば、メソッドは消えてしまいます。
class A(object): def hello(self): print "hello", self.__class__.__name__ A().hello() # => hello A class A(object): def bye(self): print "bye", self.__class__.__name__ A().hello() # Traceback (most recent call last): # File "tmp.py", line 11, in <module> # A().hello() # AttributeError: 'A' object has no attribute 'hello'
よって、メソッドを定義し、クラスに追加することで、拡張します。
class A(object): def hello(self): print "hello", self.__class__.__name__ def bye(self): print "bye", self.__class__.__name__ A.bye = bye a = A() a.bye() a.hello() # => bye A # => hello A
メソッドへの割り込みは例えば以下のようになるかもしれません (他にも拡張の方法があると思います)。
class A(object): def hello(self): print "hello", self.__class__.__name__ def hello_with_bye(self): self.hello_without_bye() print "bye", self.__class__.__name__ A.hello_without_bye = A.hello A.hello = hello_with_bye A().hello() # => hello A # => bye A
coffeescript(javascript) の場合も同じです。
class A hello: -> console.log "hello" new A().hello() # hello class A bye: -> console.log "bye" new A().hello() # TypeError: Object #<A> has no method 'hello' # at Object.<anonymous> (/Users/osada/tmp.coffee:11:9) # at Object.<anonymous> (/Users/osada/tmp.coffee:1:1) # at Module._compile (module.js:456:26)
class A hello: -> console.log "hello" A.prototype.bye = -> console.log "bye" a = new A() a.hello() a.bye() # hello # bye
class A hello: -> console.log "hello" A.prototype.hello_without_bye = A.prototype.hello A.prototype.hello = -> this.hello_without_bye() console.log "bye" new A().hello() # hello # bye
……ちょっと例が悪かったでしょうか。
python
と javascript
は大変親和性が高いので、
同じようなコードになってしまいました。
いずれにせよ、
- クラス定義
- クラスに対して、メソッドを追加
という手順を踏むことになります。
オープンクラス
のように
- クラス定義
- 同名のクラス定義を使用して、定義の続きを行う
という動作は、他の言語と比べると、かなり特徴的であると思います。
予想外の箇所でオーバライドしてしまうこともあるため、 理解して使うことがオススメです。
コラム [オープンクラスでテストが落ちた]
単体テストは通るのに、全体テストが通らない、という原因がオープンクラスだったことがあります。 モジュールのテストのために、適当なクラスを宣言して、include して使っていた所、
class Foo include SomeModule end
別の箇所でも
Foo
を定義しており、全体テストのときのみ、再定義が発動して テストが落ちていました。 他の言語であれば、同名のクラスは再定義されるので、no method error
で落ちるところが、 オープンクラスでは、メソッド自体は定義されないので落ちないが、 他で定義されたコードにより想定外の干渉が起きるということです。 オープンクラスならではだと思います。
has_many を再定義する
さて、パッチは魔術だ、というお話を致しました。
実際、該当のソースを読んだだけでは、dependent: :destroy
が無効化されていることには気づけないでしょう。
できるなら、明示的に オーバライドしていることを宣言したいところです。
この globalize
は translates
メソッドを呼ぶときに、内部で has_many
を定義しています。
translates :description, versioning: :paper_trail
# translates メソッドを呼ぶと、gem 内のメソッドで下記が実行される has_many :translations, :class_name => translation_class.name, :foreign_key => options[:foreign_key], :dependent => :destroy, :extend => HasManyExtensions, :autosave => false
よって、translates
の後に has_many
を再定義してしまえば、上書きされます。
例えば、Project
というクラスに使用した場合、
translation_class.name
は Project::Translation
になります。
class Project translates :description, versioning: :paper_trail has_many :translations, :class_name => Project::Translation, :foreign_key => nil, :extend => ::Globalize::ActiveRecord::HasManyExtensions, :autosave => false
これを毎回書くのは大変なのですが、読み手には優しくなります。 もう少し楽に書きながら、明示する方法はないでしょうか?
destroy 用のメソッドをオーバーライドする (Rails3.2)
dependent: :destroy
は、before_destroy
で発動します。
このメソッドをオーバーライドしてしまえば、
事実上、destroy
を止めることができます。
メソッドはhas_many
で定義されており、名前は "has_many_dependent_for_#{name}"
。
つまり今回で言うと、"has_many_dependent_for_translation"
です。
def configure_dependency if options[:dependent] ............ model.before_destroy dependency_method_name end end def dependency_method_name "has_many_dependent_for_#{name}" end
よって、translates
の後に、true
を返すメソッドとして再定義すればOKです。
translates :description, versioning: :paper_trail has_many_dependent_for_translations = -> { true }
このように再定義できることを知っておくと、コールバックに割り込みができて便利です。
しかし単にコールバックを止めることはできないのでしょうか?
実は、skip_callback
として下記のコードを書いても、停止されなかったのです。
translates :description, versioning: :paper_trail skip_callback :destroy, :before, :has_many_dependent_for_translations
ここには一つ、バッドノウハウを知っている必要があります。
destroy 用の callback を停止する(Rails3.2)
結論から書くと、dependen: :destroy
のコールバック自体を止めるには下記のように書きます。
translates :description, versioning: :paper_trail skip_callback :destroy, :before, "(has_many_dependent_for_translations)"
括弧をつけたメソッド名の文字列 です。
callback
には、メソッド名のシンボル、文字列、または Proc を設定できます。
ここに登録されるときの名前が、文字列の場合には 括弧が付く ようです。
def _compile_filter(filter) method_name = "_callback_#{@kind}_#{next_id}" case filter when Array filter.map {|f| _compile_filter(f)} when Symbol filter when String "(#{filter})”
こちらは destroy コールバック自体を止めているので、一番適切な止め方だと考えています。
括弧が付く
というのは、かなりのハマりどころでした。
しかし残念なことに、Rails4.0 でこの実装はなくなってしまいました。 汎用的にコールバックを停止することは難しいようです。
Rails 4 では、メソッド名に由来する削除ができない
Rails 4
では、コールバックの登録が lambda
になっており、
メソッド名を使用した、オーバーライドや、コールバックの停止、が出来なくなっています。
def self.add_before_destroy_callbacks(model, reflection) ....... model.before_destroy lambda { |o| o.association(name).handle_dependency } end
before_destroy
での登録が lambda
なので、
skip_callback
を使おうとしても対象が宣言できないためです。
よって、対応策として、下記の2つを考えました。
- reset_callbacks(:destroy)
- callbacks を直接操作する
reset_callbacks
は全てのコールバックを消してしまうため、
dependent: :destroy
以外の destroy callback
を使っている gem
には、使用できません。
また、他の destroy
よりも前に宣言しておく必要があります。
translates :description, versioning: :paper_trail reset_callbacks(:destroy)
一方、callbacks
を直接操作するのは、かなりの黒魔術です。
translates :description, versioning: :paper_trail skip_callback :destroy, :before, _destroy_callbacks.instance_variable_get(:@chain).last.filter
こちらは、直近に登録された filter
を取り出すことで、skip_callback
を使っています。
こちらも、複数のcallback
が登録されていた場合、dependent: :destroy
が last
とは
限らないため、慎重な使い方が要求されますし、使うべきではないでしょう。
よって、Rails 4
の場合、明示して打ち消すのは難しいようです
まとめ
gem の中を書き換えるには、下記の4つの方法が考えられます。
- app に コピーして修正して使う
- クローンして修正した gem を使う
- オープンクラスでパッチを当てる
- module_eval(class_eval) でパッチを当てる
dependent: :destroy
を止めるには、Rails 3
系であれば、下記2つを使い、明示的に止めることができます。
- destroy 用のメソッドをオーバーライドする
- destroy 用の callback を停止する
しかし、Rails 4
では、パッチを当てることが有効でしょう。
ということで、gem の内部を書き換える方法の共有でした。
検索用
今回、幾つかググっても情報が出てこなかったので、検索用に英語用のワードも記載しておきます。 この記事が誰かの助けになることができれば幸いです。
Cancel (remove) the
dependent destroy
defined in gem
「Qiitaの中の人とQiita:Teamを使う人と共に理想のチームについて考えてみませんか?」というイベントに出てきました
こんにちはMUGENUPの伊藤です。
2014年5月15日(木)に開催された「Qiitaの中の人とQiita:Teamを使う人と共に理想のチームについて考えてみませんか?」というイベントでQiita:Teamを使う人としてお話させていただきました。
MUGENUPでは昨年の夏頃からQiita:Teamを使っています。 以前にはIncrementsさんに事例として取り上げていただきました。
Qiita:Teamを使った議事録の共有・保存で仕事の効率化をめざす MUGENUP CTO 伊藤勝悟氏 - Qiita Blog
イベント当日はIncrements代表取締役の海野さんと二人で「チーム」「組織」「情報共有」「コニュニケーション」と言った切り口から各社でどのような取り組みをしているかについてお話させていただきました。
ここでは弊社のコミュニケーションについて起こった問題と解決のためのトライを書いてみます。
エンジニアと他部署でのコミュニケーションの必要性
開発部ではクラウドソーシングのためのクリエイター、クライアント、MUGENUPを結ぶ管理システムをメインで開発しています。 このシステムは社内の殆どの人が日々の仕事をする上で多くの時間を割く重要なものです。
自分たちが作っているものを実際に使う人(=社内の人)とコミュニケーションを取ることは重要な事です。
人が増えてオフィスが増えた
現在MUGENUPはオフィスが3部屋あります。 これまで人数の増加に伴い段々と拡張してきました。
開発部も途中から新しい部屋にお引っ越しになり、当初は広い部屋を専有して開発していたのですが、あっという間にその部屋も埋まってしまいました。
コミュニケーションが減る
部屋がわかれると他の部屋にいる人たちとのコミュニケーションが大きく減ります。 一日中顔も合わせないということもざらにあります。
自分たちが作っているものを実際に使っている人とのコミュニケーションが減ってくると、 今まで出来ていた開発時の意思疎通が難しくなってきます。
どういう対応をしているか
そこで、現在開発部と別の部署でコミュニケーションを取る機会を増やしています。 一緒にランチしたり、時間をとってもらいどのように仕事をしているかの話を聞いたりなどです。
ただ、これは一時的な解決の部分もあり、より人数が増えた場合どうするのかといった問題も有ります。 そのような点も踏まえて開発の仕組みを考える必要があると再認識しました。
(全社的な取り組みについて)
イベントでお話した際に皆さんの反応が大きかったのが「パワーランチ」という取り組みです。 これは新しく入った社員の方が「他の部署の人たちとなかなか接する機会がない」ということで提案した企画でした。
内容は週に一回各部署から何人かずつ選び、その人達でランチに行く(経費は会社持ち)というものでした。
3月くらいから初めて、先日全社員が一通り行き終わったところだったのですが、私も普段から開発部の人たちとしかランチには行かないのでなかなか新鮮な体験でした。
「うちの会社でも似たようなことやってます」という方もいらっしゃったので、結構メジャーな企画なんですかね?