Convex-Hull Trick
概要
直線集合に対して、「への直線の追加」(以下、追加クエリ)と、「あるに対し、の中で最小値(あるいは最大値)を取るような直線の値を求める」(以下、最小値クエリ)という2つのクエリを効率的に行うことが出来ます。
使える状況
DPの漸化式を整理したときなどにおいて、といった式が出てきたときに、Convex-Hull Trickを用いることで効率的に値を求めることが出来ます。
説明
ここでは最小値を求めるときのみを説明します(最大値を求めるときは上⇔下、増加⇔減少など、文章を補って読んでください)。
クエリ
まず、それぞれのクエリを見ていきます。
直線集合に直線を追加する
上図は、始め直線集合がであった状態(左)から、そこに新たな直線を追加した状態(右)へと遷移している様子を表しています。
(なお、グラフの描画にはGrapesというソフトを用いています。*1 )
あるに対し、の中で最小値(あるいは最大値)を取るような直線の値を求める
上図左において、のとき、本の直線の中で最も小さい値を取るものはであり、その時の値はとなります。
同様にでは、ではということも分かります。
その後、赤色の直線を追加すると、やのところでは変わらずとなっていますが、のところではと、直線を追加する前とは値が異なっていることが分かります。
このクエリを愚直に実装しようとすると、直線の本数を本、最小値クエリの回数を回としたとき、最小値クエリを求める度に各直線における値を調べる必要があるので、計算量はとなります。
しかし、より速くクエリをこなす方法があるため、それについて考えていきます。
性質
もう一度先ほどの図をよく見てみると、2つの性質が隠れていることが分かります。
1.最小値を取る直線は左から順に傾きが減少している
ちなみにこのことを簡単に証明すると、上図の状態で傾きの直線の区間と傾きの直線の区間の間に傾きの直線の区間があるようなときに反例となりますが、
- 直線を追加したとき、傾きはと遷移する
- 直線を追加したとき、傾きはと遷移する
となります。よって、最小値を取る直線は左から順に傾きが減少している事がわかりました。
2.不必要な直線が無いとき、あるでの直線の取る値は、その値を直線の傾き順に並べると下に凸となる
文章にすると少しわかりにくいですが、図にすると次のような感じです。
今、のときについて考えています。このとき、直線の傾きを横軸、のときの直線の取る値を縦軸とすると、次のようになります。
この性質についても簡単に証明すると、次の図左のような、直線集合を考えたとき、において直線の取る値をそのまま図にすると、図右のようになります。
しかし、図左に緑色で示した直線は、をどのようにとっても直線集合の中で最小値を取ることがありません。したがって、この緑色の直線を直線集合から取り除くことによって、図右の青色の折れ線のように下に凸となります。故に、不必要な直線を取り除いてしまえば、直線の取る値は傾き順に並べると下に凸となります。
これらの性質から、直線集合を、傾きをキーとしてソートしておくことにより、最小値クエリに二分探索を用いることが出来るため、本の直線に対する回の最小値クエリの計算量はとなります。
また、直線の追加クエリは、ソート済みの直線集合に追加する、ということから、先ほどと同様に直線の挿入位置を調べるのに二分探索を用いることが出来るため、全体の直線の数を本とすると、全ての追加クエリの計算量はとなります。
不必要な直線を取り除く
他に、先ほどの性質を満たすためには「不必要な直線を取り除く」という動作も適宜行う必要があります。
それでは、どのようなとき、どうなっていれば「不必要」と判断することが出来るのか、それについて考えていきます。
まず、前提として直線集合がすでに不必要な直線を全て取り除いてあると仮定します。
このように仮定してしまえば、次に直線が不必要になるときは、直線を追加する際であると分かります。
よって、「直線の追加クエリ」を行うときに、「追加する事によって不必要になる直線を調べる」ようにすれば良いことが分かりました。
次に、どのような直線が不必要かについてですが、ここで次の図を考えます。
これは不必要な直線が無い状況です。なお、直線とすると傾きはとなっています。
このとき、直線と直線の交点を赤の点、直線と直線の交点を青の点、直線と直線の交点を緑の点とすると、これらの交点の座標は、
赤の点緑の点青の点
となっていることが分かります。
一方、次の図を考えます。
これは不必要な直線がある状況です。直線の設定は先ほどと変わりません。
このとき、交点の座標は、
青の点緑の点赤の点
となっていることが分かります。
このように、不必要な直線があるときとないときで、相異なる直線の交点の位置関係が変わっています。
よって、直線のうち相異なる点を選んで、それらの座標を比較することにより不必要かどうかを判断できることが分かりました。
ここでは、赤の点と青の点を選んで考えます(どの点を選んでも判断はできますが、蟻本*2と同じ選び方としておきます)。
まず、赤の点の座標を求めます。
赤の点は直線と直線の交点なので、次の連立方程式を解けば求めることが出来ます。
これを解くと(簡単のためにについてのみ)、
よって、赤の点の座標はであることが分かりました。
同様に、青の点の座標を求めます。
青の点は直線と直線の交点なので、次の連立方程式を解けば求めることが出来ます。
これを解くと(簡単のためにについてのみ)、
よって、青の点の座標はであることが分かりました。
あとはこれらの大小関係について調べればよいことになります。ここでは、「不必要であるかどうか」という不等式を作ります。
そのためには、先ほどの議論により、
青の点の座標赤の点の座標
とすれば良いです。
今、であることから、及びであるので、
よって、この式を満たしているとき、直線が不必要であることが分かりました。
以上をまとめるとつのクエリは、
- 直線の追加するクエリ直線を追加する位置を二分探索で求める。その際、追加によって不必要となる直線は取り除く。
- 最小値を求めるクエリ最小値を取る直線を二分探索で求める。
とすることで、直線本、最小値クエリ回とすると、全体の計算量はとなることが分かりました。
特殊な状況における更なる高速化
上記では、どのようなクエリ群であっても最小値を求められるものを説明しました。
ここでは、そのクエリ群がある条件を満たしているようなときに、より高速化が可能であるため、それについて解説していきます。
追加クエリにおける直線の傾きが単調であるとき
「追加クエリにおける直線の傾きが単調」とは、始め直線集合が空である状態から、直線を、と追加していくときに、その傾きが(あるいは)であることを指します。
このとき、先ほど述べたように直線の挿入位置を二分探索で調べる必要はなく、常に先頭、あるいは末尾に追加していくことになるため、直線の本数本とすると、追加クエリの計算量はとなります。
最小値クエリにおけるが単調であるとき
「最小値クエリにおけるが単調」とは、最小値クエリにおいて与えられるが(あるいは)であることを指します。
このとき、最小値クエリにおけるを進めると、直線集合の先頭の直線が最小値を取らなくなるときがあります。すると、は後戻りしないため、もうこの直線は使わないことが分かります。よって、直線集合の先頭からも直線を取り除くようにすることで、最小値クエリを行うときは常に直線集合の先頭の直線が最小値を取ることになるため、最小値クエリ回にかかる計算量はとなります。
(図における色付きの直線は最小値を取らなくなったもの)
上記パターンを両方満たしているとき
つまり、「追加クエリにおける直線の傾きも単調」であり「最小値クエリにおけるも単調」であるようなときを指します。
このときは、直線の本数本、最小値クエリの回数を回とすると、その計算量はとなるため、条件が無い時に比べて分速くクエリをこなすことが出来ます。
コード(C++)
※注:このコードは追加クエリが単調であると仮定したものです。
(力不足で一般的な状況のものが出来ていません…。書きかけのものを一応ここに残しておきます)
[2018-02-27 追記] 一般的なクエリに対応したものをココに書きましたが,若干遅そうなのでまだα版です
#include <algorithm> #include <functional> #include <utility> #include <vector> template<typename T> class ConvecHullTrick { private: // 直線群(配列) std::vector<std::pair<T, T>> lines; // 最小値(最大値)を求めるxが単調であるか bool isMonotonicX; // 最小/最大を判断する関数 std::function<bool(T l, T r)> comp; public: // コンストラクタ ( クエリが単調であった場合はflag = trueとする ) ConvecHullTrick(bool flagX = false, std::function<bool(T l, T r)> compFunc = [](T l, T r) {return l >= r; }) :isMonotonicX(flagX), comp(compFunc) { lines.emplace_back(0, 0); }; // 直線l1, l2, l3のうちl2が不必要であるかどうか bool check(std::pair<T, T> l1, std::pair<T, T> l2, std::pair<T, T> l3) { if (l1 < l3) std::swap(l1, l3); return (l3.second - l2.second) * (l2.first - l1.first) >= (l2.second - l1.second) * (l3.first - l2.first); } // 直線y=ax+bを追加する void add(T a, T b) { std::pair<T, T> line(a, b); while (lines.size() >= 2 && check(*(lines.end() - 2), lines.back(), line)) lines.pop_back(); lines.emplace_back(line); } // i番目の直線f_i(x)に対するxの時の値を返す T f(int i, T x) { return lines[i].first * x + lines[i].second; } // i番目の直線f_i(x)に対するxの時の値を返す T f(std::pair<T, T> line, T x) { return line.first * x + line.second; } // 直線群の中でxの時に最小(最大)となる値を返す T get(T x) { // 最小値(最大値)クエリにおけるxが単調 if (isMonotonicX) { static int head = 0; while (lines.size() - head >= 2 && comp(f(head, x), f(head + 1, x))) ++head; return f(head, x); } else { int low = -1, high = lines.size() - 1; while (high - low > 1) { int mid = (high + low) / 2; (comp(f(mid, x), f(mid + 1, x)) ? low : high) = mid; } return f(high, x); } } };
コードの説明
ほぼ先ほどの議論をそのままコードに書いています。
なお、関数はそれぞれ、
- 関数直線の不必要性を判断する
- 関数直線集合に直線を追加する
- 関数直線に対するを返す
- 関数直線集合内でのときの最小値を返す
となっています。
また、使うときには
ConvexHullTrick<int> cht(true);
といった感じで宣言します。
このとき、第一引数をかにすることでそれぞれ最小値(最大値)クエリが単調であるか否かを指定することが出来ます(省略可)。
また、第二引数に、
ConvexHullTrick<int> cht(true, std::less<int>());
としたり、
ConvexHullTrick<int> cht(true, [](T l, T r) {return l <= r; });
とすることで最大値クエリをこなすことが出来ます。
具体例
実際に直線を追加していって、その後の最小値クエリの違いを見ていきます。
ソースコード
※ヘッダ、クラスは省略
int main() { ConvecHullTrick<int> cht(false); cht.add(2, 0); std::cout << "Add y=2x" << std::endl; std::cout << "min(f(-2)) = " << cht.get(-2) << std::endl; std::cout << "min(f(2)) = " << cht.get(2) << std::endl << std::endl; cht.add(0, -1); std::cout << "Add y=-1" << std::endl; std::cout << "min(f(-2)) = " << cht.get(-2) << std::endl; std::cout << "min(f(2)) = " << cht.get(2) << std::endl << std::endl; cht.add(1, 1); std::cout << "Add y=x+1" << std::endl; std::cout << "min(f(-2)) = " << cht.get(-2) << std::endl; std::cout << "min(f(2)) = " << cht.get(2) << std::endl << std::endl; cht.add(-1, 0); std::cout << "Add y=-x" << std::endl; std::cout << "min(f(-2)) = " << cht.get(-2) << std::endl; std::cout << "min(f(2)) = " << cht.get(2) << std::endl << std::endl; return 0; }
出力
Add y=2x min(f(-2)) = -4 min(f(2)) = 4 Add y=-1 min(f(-2)) = -4 min(f(2)) = -1 Add y=x+1 min(f(-2)) = -4 min(f(2)) = -1 Add y=-x min(f(-2)) = -4 min(f(2)) = -2
上記例で行ったクエリを図にしてみると、次のようになっています。
これで、確かに正しく出力出来ていることが分かりました。
備考
前述のように、上記コードは全ての状況に対応出来るものではないので注意してください。
あとがき
使える機会は式を見て割と分かりやすいですが、実装は慣れていないと難しそうです。
そのため、問題を色々調べてみました(まだ全て解いてないです)。
3709 -- K-Anonymous Sequence
No.409 ダイエット - yukicoder
I: Live Programming - Japan Alumni Group Summer Camp 2015 Day 4 | AtCoder
Contest Page | CodeChef
Contest Page | CodeChef
Problem - E - Codeforces
このConvex-Hull Trickを用いることにより、計算量をからへと高速化出来るため、覚えておくとどこかで役に立つと思います。
*1:http://www.osaka-kyoiku.ac.jp/~tomodak/grapes/
*2: プログラミングコンテストチャレンジブック [第2版] ?問題解決のアルゴリズム活用力とコーディングテクニックを鍛える?
SRM691(Div1)に参加しました!が…
初めてのDiv1だ。゚(゚´ω`゚)゚。
— satanic@C++ (@satanic0258) 2016年5月30日
今回は色々意外なことがあったので日記として書いておきます。
(この記事に解説は含まれないので予めご了承下さい)
私が前回参加したのはSRM688だった、ということで気づいたら2回分参加忘れていたようです…
そういえばSRMのシステムあんまり覚えてない(白目)
— satanic@C++ (@satanic0258) 2016年5月30日
そのSRM688では、割といい成績を残せ(てしまっ)たので、SRM2回目にしてDiv1という魔境(?)に放り込まれることに。
ヒヤヒヤしていたらすぐに時間になってしまいました。
Coding Phase
Easy(300)
問題を解読するのにやや手こずりながらも色々考察をしてみる…
(テストケースを書いてみたり、DPで出来…ないなぁと色々やっています)
…その考察の結果、
テストケース通らず悲しみ
— satanic@C++ (@satanic0258) 2016年5月30日
結局、時間内に通すことは出来ませんでした…
個人的にグラフ理論関係の問題がまだ不慣れな部分もあってか、あまりどういうことしたら良いかを見出すことが出来ませんでしたね…(今後の目標ポイント)
Medium(500)
Hard(900)
Easyに下手に時間を掛けてしまい、気づいたら時間が終わってしまったので開けてすらいません。
点数が減ることを気にする以前に、解けなかったら意味がないのである程度考えてもわからなさそうだったら、さっさと他の開けちゃった方がいいですね…(今後の目標ポイント2)
(ちなみに、問題などを初めから順に埋めていこうという癖があるようで、大学受験時のセンター試験なども解く順番を替えていたらもう少し点が取れたのかもしれなかったですね…)
Intermission
結局何もできず終わりの鈴がなってしまいました…。
room内でeasy3人しか通してないのやばすぎでしょ
— satanic@C++ (@satanic0258) 2016年5月30日
しかし、roomの状況を見ると以外と他の人もあまりいい調子ではなさそう。
これで次のChallenge成功したら大逆転のチャンスが…?
…ということで、なんとか爪痕を残そうと改めて意気込みました(半ば諦めてはいましたが…↓)。
challengeで点稼ご(無理)
— satanic@C++ (@satanic0258) 2016年5月30日
Challenge Phase
Challenge Phaseが始まって数秒、突然Hardを通していた4人のコードが次々と撃ち落されていく光景が…
「なんだここは…恐ろしいroomだ…」
と思いながら、他の人のeasyはまだ通ったままになっていたので、粗探しをしまくりました(悪い顔)。
具体的には、Challenge Phaseが始まってからすぐにその人たちのコードを急いで写経して、テストケースをいくつか投げてみたりしていました。
すると、手元で書いていたケースが通らないコードを発見!
前回の反省を活かして、ちゃんとChallengeは出来るようにしておいたので、早速Challenge!
challenge初めてにして成功した!
— satanic@C++ (@satanic0258) 2016年5月30日
見事Challengeに初成功しました!
そのおかげで順位が一気に上がり、ガッツポーズをしながらChallenge Phaseを終えました…
最終結果
スコア
問題 | 満点スコア | 獲得スコア | かかった時間 |
Easy | 300 | 0.00 | --:-- |
Medium | 500 | 0.00 | --:-- |
Hard | 900 | 0.00 | --:-- |
Challenge数 | Challenge成功数 |
1 | 1 |
計:50.00
レート
ここでレートなんですが…
1231(青)→1524(黄)
ファッ!? pic.twitter.com/WoG8AwIUsA
— satanic@C++ (@satanic0258) 2016年5月30日
…もうこのとき「えっ!?嘘でしょ!?」とか素で叫んでしまいました…。
まさか無→青→黄と2回でトントン遷移してしまうとは…。
恐らく、0完で終わってそのまま0点だった人が多かったんじゃないですかね…?
そのため順位上では黄色コーダーの人を何人か抜き、こういう結果になったんじゃないかと予想しています…。
あとがき
たとえレートが上がろうが解法全然わかんないんですけど…
— satanic@C++ (@satanic0258) 2016年5月30日
しかし、レートは確かに上がりましたが、これは自分が圧倒的成長した訳でもなく、運が良かっただけなのでなんだか複雑な心境に…
解けなかったことには変わりないので、まだまだ頑張る必要があるようですね…!
数字の結果に惑わされず、これからも精進していきたいと思います👍
繰り返し自乗法
概要
の値を効率的に解きます。
使える状況
「をで割ったあまり」が欲しいときに、があまりにも大きいとその計算だけで時間がかかってしまうことがあります。そのような時には、この繰り返し自乗法を用いることで素早く求めることが出来ます。
説明
の値を求めたいとき、愚直な方法として次のような手法を考えることが出来ます。
using ll = long long int; ll PowMod(ll N, ll P, ll M){ ll ans = 1; for(ll i=0; i<P; ++i){ ans *= N; ans %= M; } return ans; }
しかし、上記のような方法だと回ループしてしまうため、などの場合では非常に時間がかかってしまいます。
そこで使うのが、繰り返し自乗法です。
繰り返し自乗法は、
「を一回一回掛けてmodを取るのでは時間がかかるので、まとめて掛けてしまおう!」
という考えをもとにしたアルゴリズムです。
この「まとめて掛ける」というのがどういうことか、具体的にのときについて考えながら説明します。
以下、求める値を、とし、また、""の計算をした時にはで割った余りを求める操作も一緒に行っているものとします。
ボトムアップ(小さい値から大きい値へと計算していく)な考え方
先ほどの愚直な方法では、次のような計算をしていることになります。
確かに、回、つまり回分の計算をしていることがわかりますね。
ここで、上で計算しているように、
となっていることから、
とまとめてしまい、あとは、
と出来るので、計算回数は最初のを計算する回と、まとめた後の回となっているので、見事に半分にすることが出来ていますね。
これをさらに、
とすることによりを求め、同様にを求め、…と繰り返すことで、最終的には
とまで式を短くすることが出来ます。
このとき、次の回しか計算をしていないことが分かりますね。
- を求める()
- を求める()
- を求める()
- を求める()
- を求める()
このように、の自乗を繰り返し計算した結果を用いて計算を行っているので、「繰り返し自乗法」と言うんですね。
コード(C++)
using ll = long long int; ll RepeatSquaring(ll N, ll P, ll M){ if(P==0) return 1; if(P%2==0){ ll t = RepeatSquaring(N, P/2, M); return t*t % M; } return N * RepeatSquaring(N, P-1, M); }
コードの説明
トップダウンな考え方の節で示した式を、そのまま関数に落とし込んでいるだけです。
具体例
の値を求める。
今回は、愚直な方法(関数PowMod_Simple)と繰り返し自乗法(PowMod_RepeatSquaring)でどのくらい性能の差があるかを、
の2点について見てみます。
#include <iostream> #include <algorithm> #include <chrono> using ll = long long int; ll count_ps = 0; ll PowMod_Simple(ll N, ll P, ll M){ ll ans = 1; for(ll i=0; i<P; ++i){ ++count_ps; ans *= N; ans %= M; } return ans; } ll count_prs = 0; ll PowMod_RepeatSquaring(ll N, ll P, ll M){ ++count_prs; if(P==0) return 1; if(P%2==0){ ll t = PowMod_RepeatSquaring(N, P/2, M); return t*t % M; } return N * PowMod_RepeatSquaring(N, P-1, M); } int main(){ std::ios::sync_with_stdio(false); std::cin.tie(0); //愚直な方法----------------------------- std::cout << "愚直な方法\n"; auto startTime = std::chrono::system_clock::now(); //処理部------ std::cout << "2^1000000000 mod 1000000007 = " << PowMod_Simple(2, 1000000000, 1000000007) << "\n"; std::cout << "再帰回数\t:" << count_ps << "\n"; //------------ auto endTime = std::chrono::system_clock::now(); std::cout << "処理時間:" << std::chrono::duration_cast<std::chrono::nanoseconds>(endTime - startTime).count() << "ns\n"; //--------------------------------------- std::cout << "------\n"; //愚直な方法----------------------------- std::cout << "繰り返し自乗法\n"; startTime = std::chrono::system_clock::now(); //処理部------ std::cout << "2^1000000000 mod 1000000007 = " << PowMod_RepeatSquaring(2, 1000000000, 1000000007) << "\n"; std::cout << "再帰回数\t:" << count_prs << "\n"; //------------ endTime = std::chrono::system_clock::now(); std::cout << "処理時間:" << std::chrono::duration_cast<std::chrono::nanoseconds>(endTime - startTime).count() << "ns\n"; //--------------------------------------- return 0; }
実行結果(一例)
愚直な方法 2^1000000000 mod 1000000007 = 140625001 再帰回数 :1000000000 処理時間 :22322817871ns ------ 繰り返し自乗法 2^1000000000 mod 1000000007 = 140625001 再帰回数 :43 処理時間 :2709ns
この結果からも分かるように、再帰回数、処理時間ともに、文字通り桁違いで小さく計算することが出来ていますね。
ちなみに、処理時間の「ns」は「ナノ秒(ナノ)」を表しているため、
- 愚直な方法 :22.322817871秒
- 繰り返し自乗法 : 0.000002709秒
の時間がかかっていることを表しています。
備考
愚直な方法は計算量がであるのに対し、繰り返し自乗法ではにまで抑えられています。