src | ||
test | ||
.gitignore | ||
Makefile | ||
README.md | ||
rebar.config | ||
rebar.config.script | ||
rebar.lock | ||
wercker.yml |
RPC
Erlang реализация Библиотеки RPC вызовов для общения между микросервисами.
На текущий момент RPC реализован с помощью Thrift протокола поверх http.
API
Сервер
Получить child_spec RPC сервера:
1> EventHandler = my_event_handler. %% реализует rpc_event_handler behaviour
2> Service = money_service. %% имя модуля, описывающего thrift сервис
3> ThriftHandler = thrift_money_service_handler. %% реализует rpc_thrift_handler behaviour
4> Opts = [].
5> Handlers = [{"/v1/thrift_money_service",{Service, ThriftHandler, Opts}}].
6> ServerSpec = rpc_server:child_spec(money_service_sup, #{
6> handlers => Handlers,
6> event_handler => EventHandler,
6> ip => {127,0,0,1},
6> port => 8022,
6> net_opts => []
6> }).
Теперь можно поднять RPC сервер в рамках supervision tree приложения. Например:
7> {ok, _} = supervisor:start_child(MySup, ServerSpec).
Клиент
Сделать синхронный RPC вызов:
8> Url = <<"localhost:8022/v1/thrift_money_service">>.
9> Function = give_me_money. %% thrift метод
10> Args = [100, <<"rub">>].
11> Request = {Service, Function, Args}.
12> Client = rpc_client:new(<<"myUniqRequestID1">>, EventHandler).
13> {ok, Result, _NextClient} = rpc_client:call(Client, Request, #{url => Url}).
В случае, когда сервер бросает Exception, описанный в .thrift файле сервиса,
rpc_client:call/3
бросит это же исключение в виде: throw:{Exception, NextClient}
, а в случае неудачи RPC вызова: error:{rpc_failed, NextClient}
.
rpc_client:call_safe/3
- аналогична call/3
, но в случае исключений, не бросает их, а возвращает в виде tuple: {Class, Error, NextClient}
.
14> Args1 = [1000000, <<"usd">>].
15> Request1 = {Service, Function, Args1}.
16> Client1 = rpc_client:new(<<"myUniqRequestID2">>, EventHandler).
17> {throw, #take_it_easy{}, _NextClient1} = rpc_client:call_safe(Client1, Request1, #{url => Url}).
rpc_client:call_async/5
позволяет сделать call асинхронно и обработать результат в callback функции. rpc_client:call_async/5
требует также sup_ref() для включения процесса, обрабатывающего RPC вызов, в supervision tree приложения.
18> Callback = fun({ok, Res, _NextClient2}) -> io:format("Rpc succeeded: ~p~n", [Res]);
18> ({throw, Error, _NextClient2}) -> io:format("Service exception: ~p~n", [Error]);
18> ({error, rpc_failed, _NextClient2}) -> io:format("Rpc failed")
18> end.
19> Client2 = rpc_client:new(<<"myUniqRequestID3">>, EventHandler).
20> {ok, Pid, _NextClient2} = rpc_client:call_async(SupRef, Callback, Client2, Request, #{url => Url}).
Можно создать пул коннектов для thrift клиента: rpc_thrift_client:start_pool/2
и затем использовать его при работе с rpc_client
:
21> Pool = my_client_pool.
22> ok = rpc_thrift_client:start_pool(Pool, 10).
23> Client3 = rpc_client:new(<<"myUniqRequestID3">>, EventHandler).
24> {ok, Result, _NextClient3} = rpc_client:call(Client, Request, #{url => Url, pool => Pool}).
Закрыть пул можно с помошью rpc_thrift_client:stop_pool/1
.
Важно!
В предыдущих примерах новый thrift клиент Client
создаётся с помощью rpc_client:new/2
перед каждым RPC вызовом. В реальном микросервисе, использующем эту библиотеку, в большинстве случаев RPC вызов будет результатом обработки внешнего RPC вызова к этому микросервису. В таком случае Client
будет получен в рамках ThriftHandler:handle_function/4
на стороне RPC сервера. Это значение Client
надо использовать при первом call вызове rpc_client
API (т.е. вызывать rpc_client:new/2
не надо). Полученный в результате NextClient
следует передать в следующий API вызов rpc_client
и.т.д. Это необходимо, для корректного логирования RPC ID библиотекой, которое позволяет построить полное дерево RPC вызовов между микросервисами в рамках обработки бизнес сценария.