设为首页收藏本站

LUPA开源社区

 找回密码
 注册
文章 帖子 博客
LUPA开源社区 首页 业界资讯 技术文摘 查看内容

什么样的RPC才是好用的RPC

2016-9-6 22:17| 发布者: joejoe0332| 查看: 2058| 评论: 0|原作者: CSDN|来自: CSDN

摘要: 现在RPC框架很多,但是真正好用的RPC却是少之又少。那么什么是好用的RPC,什么是不好用的RPC呢,有一个评判标准吗?下面是我列举出来的衡量RPC好用与否的几条标准:…… ...

现在RPC框架很多,但是真正好用的RPC却是少之又少。那么什么是好用的RPC,什么是不好用的RPC呢,有一个评判标准吗?下面是我列举出来的衡量RPC好用与否的几条标准:

  • 真的像本地函数一样调用

  • 使用简单,用户只需要关注业务即可

  • 灵活,RPC调用的序列化方式可以自由定制,比如支持json,支持msgpack等方式

下面来分别解释这几条标准。

  • 标准1:真的像本地函数一样调用

    RPC的本质是为了屏蔽网络的细节和复杂性,提供易用的api,让用户就像调用本地函数一样实现远程调用,所以RPC最重要的就是“像调用本地函数一样”实现远程调用,完全不让用户感知到底层的网络。真正好用的RPC接口,他的调用形式是和本地函数无差别的,但是本地函数调用是灵活多变的。服务器如果提供和客户端完全一致的调用形式将是非常好用的,这也是RPC框架的一个巨大挑战

  • 标准2:使用简单,用户只需要关注业务即可

    RPC的使用简单直接,非常自然,就是和调用本地函数一样,不需要写一大堆额外代码,用户只用写业务逻辑代码,而不用关注框架的细节,其他的事情都由RPC框架完成。

  • 标准3:灵活,RPC调用的序列化方式可以自由定制

    RPC调用的数据格式支持多种编解码方式,比如一些通用的json格式、msgpack格式或者boost.serialization等格式,甚至支持用户自己定义的格式,这样使用起来才会更灵活。

RPC框架评估

下面根据这几个标准来评估一些国内外知名大公司的RPC框架,这些框架的用法在github的wiki中都有使用示例,使用示例代码均来自官方提供的例子。

谷歌 gRPC

gRPC最近发布了1.0版本,他是谷歌公司用c++开发的一个RPC框架,并提供了多种客户端。

  • 协议定义

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    先定义一个.proto的文件,例如
     
        // Obtains the feature at a given position.
        rpc GetFeature(Point) returns (Feature) {}
    定义了一个服务接口,接收客户端传过来的Point,返回一个Feature,接下来定义protocol buffer的消息类型,用于序列化/反序列化
     
        message Point {
          int32 latitude = 1;
          int32 longitude = 2;
        }
  • 服务器代码

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    class RouteGuideImpl final : public RouteGuide::Service {
        Status GetFeature(ServerContext* context, const Point* point, Feature* feature) override {
              feature->set_name(GetFeatureName(*point, feature_list_));
              feature->mutable_location()->CopyFrom(*point);
              return Status::OK;
        }
    }
     
    void RunServer(const std::string& db_path) {
      std::string server_address("0.0.0.0:50051");
      RouteGuideImpl service(db_path);
     
      ServerBuilder builder;
      builder.AddListeningPort(server_address, grpc::InsecureServerCredentials());
      builder.RegisterService(&service);
      std::unique_ptr<Server> server(builder.BuildAndStart());
      std::cout << "Server listening on " << server_address << std::endl;
      server->Wait();
    }
  • 客户端代码

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    bool GetOneFeature(const Point& point, Feature* feature) {
        ClientContext context;
        Status status = stub_->GetFeature(&context, point, feature);
        if (!status.ok()) {
          std::cout << "GetFeature rpc failed." << std::endl;
          return false;
        }
        if (!feature->has_location()) {
          std::cout << "Server returns incomplete feature." << std::endl;
          return false;
        }
     
        return true;
    }
  • 评价

    gRPC调用的序列化用的是protocal buffer,RPC服务接口需要在.proto文件中定义,使用稍显繁琐。根据标准1,gRPC并没有完全实现像本地调用一样,虽然很接近了,但做不到,原因是RPC接口中必须带一个Context的参数,并且返回类型必须是Status,这些限制导致gRPC无法做到像本地接口一样调用。 
    根据标准2,gRPC的使用不算简单,需要关注诸多细节,比如Context和Status等框架的细节。根据标准3,gRPC只支持pb协议,无法扩展支持其他协议。

    综合评价:70分。

百度sofa-pbRPC

sofa-pbRPC是百度用c++开发的一个RPC框架,和gRPC有点类似,也是基于protocal buffer的,需要定义协议。

  • 协议定义 
    // 定义请求消息 
    message EchoRequest { 
    required string message = 1; 
    }

    1
    2
    3
    4
    5
    6
    7
    8
    9
    // 定义回应消息
    message EchoResponse {
        required string message = 1;
    }
     
    // 定义RPC服务,可包含多个方法(这里只列出一个)
    service EchoServer {
        rpc Echo(EchoRequest) returns(EchoResponse);
    }
  • 服务器端代码

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    #include <sofa/pbrpc/pbrpc.h>  // sofa-pbrpc头文件
    #include "echo_service.pb.h"   // service接口定义头文件
    class EchoServerImpl : public sofa::pbrpc::test::EchoServer
    {
    public:
        EchoServerImpl() {}
        virtual ~EchoServerImpl() {}
     
    private:
        virtual void Echo(google::protobuf::RpcController* controller,
                          const sofa::pbrpc::test::EchoRequest* request,
                          sofa::pbrpc::test::EchoResponse* response,
                          google::protobuf::Closure* done)
        {
            sofa::pbrpc::RpcController* cntl =
                static_cast<sofa::pbrpc::RpcController*>(controller);
            SLOG(NOTICE, "Echo(): request message from %s: %s",
                cntl->RemoteAddress().c_str(), request->message().c_str());
            response->set_message("echo message: " + request->message());
            done->Run();
        }
    };
     
    注意:
     
    服务完成后必须调用done->Run(),通知RPC系统服务完成,触发发送Response;
    在调了done->Run()之后,Echo的所有四个参数都不再能访问;
    done-Run()可以分派到其他线程中执行,以实现了真正的异步处理;
  • 客户端代码

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    int main()
    {
        SOFA_PBRPC_SET_LOG_LEVEL(NOTICE);
     
        // 定义RpcClient对象,管理RPC的所有资源
        // 通常来说,一个client程序只需要一个RpcClient实例
        // 可以通过RpcClientOptions指定一些配置参数,譬如线程数、流控等
        sofa::pbrpc::RpcClientOptions client_options;
        client_options.work_thread_num = 8;
        sofa::pbrpc::RpcClient rpc_client(client_options);
     
        // 定义RpcChannel对象,代表一个消息通道,需传入Server端服务地址
        sofa::pbrpc::RpcChannel rpc_channel(&rpc_client, "127.0.0.1:12321");
     
        // 定义EchoServer服务的桩对象EchoServer_Stub,使用上面定义的消息通道传输数据
        sofa::pbrpc::test::EchoServer_Stub stub(&rpc_channel);
     
        // 定义和填充调用方法的请求消息
        sofa::pbrpc::test::EchoRequest request;
        request.set_message("Hello world!");
     
        // 定义方法的回应消息,会在调用返回后被填充
        sofa::pbrpc::test::EchoResponse response;
     
        // 定义RpcController对象,用于控制本次调用
        // 可以设置超时时间、压缩方式等;默认超时时间为10秒,默认压缩方式为无压缩
        sofa::pbrpc::RpcController controller;
        controller.SetTimeout(3000);
     
        // 发起调用,最后一个参数为NULL表示为同步调用
        stub.Echo(&controller, &request, &response, NULL);
     
        // 调用完成后,检查是否失败
        if (controller.Failed()) {
            // 调用失败后的错误处理,譬如可以进行重试
            SLOG(ERROR, "request failed: %s", controller.ErrorText().c_str());
        }
     
        return EXIT_SUCCESS;
    }
  • 评价

    sofa-pbRPC的使用并没有像sofa这个名字那样sofa,根据标准1,服务端的RPC接口比gRPC更加复杂,更加远离本地调用了。根据标准2,用户要做很多额外的事,需要关注框架的很多细节,比较难用。根据标准3,同样只支持pb协议,无法支持其他协议。

    综合评价:62分。

腾讯Pebble

腾讯开源的Pebble也是基于protocal buffer的,不过他的用法比gRPC和sofaRPC更好用,思路都是类似的,先定义协议。

  • 协议定义

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    struct HeartBeatInfo {
      1: i64 id,
      2: i32 version = 1,
      3: string address,
      4: optional string comment,
    }
     
    service BaseService {
     
       i64 heartbeat(1:i64 id, 2:HeartBeatInfo data),
     
       oneway void log(1: string content)
     
    }
  • 服务器端代码

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    class BaseServiceHandler : public BaseServiceCobSvIf {
    public:
     
        void log(const std::string& content) {
            std::cout << "receive request : log(" << content << ")" << std::endl;
        }
    };
     
    int main(int argc, char* argv[]) {
        // 初始化RPC
        pebble::rpc::Rpc* rpc = pebble::rpc::Rpc::Instance();
        rpc->Init(""0"");
     
        // 注册服务
        BaseServiceHandler base_service;
        rpc->RegisterService(&base_service);
     
        // 配置服务监听地址
        std::string listen_addr("tcp://127.0.0.1:");
        if (argc > 1) {
            listen_addr.append(argv[1]);
        else {
            listen_addr.append("8200");
        }
     
        // 添加服务监听地址
        rpc->AddServiceManner(listen_addr, pebble::rpc::PROTOCOL_BINARY);
     
        // 启动server
        rpc->Serve();
     
        return 0;
    }
  • 客户端代码

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    // 初始化RPC
    pebble::rpc::Rpc* rpc = pebble::rpc::Rpc::Instance();
    rpc->Init("", -1"");
     
    // 创建rpc client stub
    BaseServiceClient client(service_url, pebble::rpc::PROTOCOL_BINARY);
     
    // 同步调用
    int ret = client.log("pebble simple test : log");
    std::cout << "sync call, ret = " << ret << std::endl;
  • 评价

    Pebble比gRPC和sofa-pbrpc更好用,根据标准1,调用方式和本地调用一致了,接口中没有任何限制。根据标准2,除了定义协议稍显繁琐之外已经比较易用了,不过服务器在使用上还是有一些限制,比如注册服务的时候只能注册一个类对象的指针,不能支持lambda表达式,std::function或者普通的function。根据标准3,gRPC只支持pb协议,无法扩展支持其他协议。

    综合评价:75分。

apache msgpack-RPC

msgpack-RPC是基于msgpack定义的RPC框架,不同于基于pb的RPC,他无需定义专门的协议。

  • 服务器端代码

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    #include <jubatus/msgpack/rpc/server.h>
     
    class myserver : public msgpack::rpc::server::base {
    public:
        void add(msgpack::rpc::request req, int a1, int a2)
        {
            req.result(a1 + a2);
        }
     
    public:
        void dispatch(msgpack::rpc::request req)
        try {
            std::string method;
            req.method().convert(&method);
     
            if(method == "add") {
                msgpack::type::tuple<intint> params;
                req.params().convert(&params);
                add(req, params.get<0>(), params.get<1>());
     
            else {
                req.error(msgpack::rpc::NO_METHOD_ERROR);
            }
     
        catch (msgpack::type_error& e) {
            req.error(msgpack::rpc::ARGUMENT_ERROR);
            return;
     
        catch (std::exception& e) {
            req.error(std::string(e.what()));
            return;
        }
    };
  • 客户端代码

    1
    2
    3
    4
    5
    6
    7
    8
    9
    #include <jubatus/msgpack/rpc/client.h>
    #include <iostream>
     
    int main(void)
    {
        msgpack::rpc::client c("127.0.0.1", 9090);
        int result = c.call("add", 1, 2).get<int>();
        std::cout << result << std::endl;
    }
  • 评价

    msgpack-RPC使用起来也很简单,不需要定义proto文件,根据标准1,客户端的调用和本地调用一致,不过,服务器的RPC接口有一个msgpack::rpc::request对象,并且也必须派生于base类,使用上有一定的限制。根据标准2,服务器端提供RPC服务的时候需要根据method的名字来dispatch,这种方式不符合开闭原则,使用起来有些不方便。根据标准3,msgpack-rpc只支持msgpack的序列化,不能支持其他的序列化方式。

    综合评价:80分。

总结

目前虽然国内外各大公司都推出了自己的RPC框架,但是真正好用易用的RPC框架却是不多的,这里对各个厂商的RPC框架仅从好用的角度做一个评价,一家之言,仅供参考,希望可以为大家做RPC的技术选型的时候提供一些评判依据。

转自:CSDN博客 作者:qicosmos


酷毙

雷人

鲜花

鸡蛋

漂亮
  • 快毕业了,没工作经验,
    找份工作好难啊?
    赶紧去人才芯片公司磨练吧!!

最新评论

关于LUPA|人才芯片工程|人才招聘|LUPA认证|LUPA教育|LUPA开源社区 ( 浙B2-20090187 浙公网安备 33010602006705号   

返回顶部