当前位置:首页区块链超级账本Fabric 1.0 多节点集群的部署(3)

超级账本Fabric 1.0 多节点集群的部署(3)

上两期文章阐述了超级账本 Fabric 1.0多节点部署概述以及多节点集群部署的准备工作(可点击),得到广大读者的关注,今天发布连载之三,介绍搭建 Fabric 1.0 集群的具体配置和chaincode管理的步骤。因为是手动部署,因此步骤比较多。有需要的读者可在文后下载3期合并的PDF版本。

超级账本Fabric 1.0 多节点集群的部署(1):http://8btc.com/article-4542-1.html

超级账本Fabric 1.0 多节点集群的部署(2):http://8btc.com/article-4543-1.html


( 接上期,部署配置中大量使用了 docker 和 docker compose ,建议不熟悉的读者先补充相关知识。)

2.3 多节点 Fabric 的配置

以下各VM的工作目录为:

$GOPATH/src/github.com/hyperledger/fabric/examples/e2e_cli

可在任意VM上运行以下命令,生成构建 Fabric 网络所需的成员证书等必要材料:

bash generateArtifacts.sh

该命令只需在某个VM上运行一次,其他VM上就不需要运行。

在运行该命令的VM中会生成 channel-artifacts 和 crypto-config 目录,需要把它们拷贝到其他VM的 e2e_cli 目录下,如果在VM中已经存在该目录,则先把目录删除。当每个VM中都有统一的 channel-artifacts 和 crypto-config 目录后接下来就开始配置 compose 文件。

I. VM1的配置:

1. 修改 /etc/hosts 的映射关系
因为容器内部通过域名的方式访问 orderer , 因此需要通过修改 /etc/hosts 把orderer 的域名和 ip 地址对应起来,在文件中添加:

10.112.122.69 orderer.example.com

2. 修改docker-compose-cli.yaml
在默认的情况下,docker-compose-cli.yaml会启动6个serice(容器),它们分别为 peer0.org1.example.com、 peer1.org1.example.com、 peer0.org2.example.com、 peer1.org2.example.com、 orderer.example.com 和 cli,因为每台机器只运行与之对应的一个节点,因此需要注释掉无需启动的 serice。

(1) 除 peer0.org1.example.com 和 cli serice 外,其他 serice 全部注释。
(2) 在 cli 的 olumes 中加入映射关系:
-./peer/:/opt/gopath/src/github.com/hyperledger/fabric/peer/
-/etc/hosts:/etc/hosts

(3) 注释 cli 中的 depends_on 和 command :
depends_on:
#- orderer.example.com
– peer0.org1.example.com
#- peer1.org1.example.com
#- peer0.org2.example.com
#- peer1.org2.example.com

#command: /bin/bash -c ‘./scripts/script.sh ${CHANNEL_NAME}; sleep $TIMEOUT’

之前我们把容器中的工作目录挂载到宿主机的 e2e_cli/peer 目录下, 是因为在执行 create channel 的过程中,orderer 会返回一个 mychannel.block 作为 peer 加入 channel 的依据,其他的 peer 要加入到相同的 channel 中必须先获取该 mychannel.block 文件。因此,通过挂载目录从宿主机就能方便获得 mychannel.block ,并且把它传输到其他的 VM 上。

挂载 /etc/hosts 的目的是把主机中 orderer.exmaple.com 与 IP 地址10.112.122.69 的映射关系带入容器中,目的是让 cli 能通过域名访问 orderer 。在实际环境中,建议通过配置 DNS 而不是修改 /etc/hosts 文件(下同)。

3. 修改 base/peer-base.yaml,添加 olumes:
olumes:
-/etc/hosts:/etc/hosts

这样 peer 容器能通过域名访问orderer了。

II. VM2配置:

1. 修改 /etc/hosts 的映射关系
peer1.org1.example.com 使用了 peer0.org1.example.com 作为它的初始化节点,因此需要在主机中还需要加入 VM1 的 ip 地址。
10.112.122.69 orderer.example.com
10.112.122.144 peer0.org1.example.com

2. 修改docker-compose-cli.yaml
(1) 类似VM1,除 peer1.org1.example.com 和 cli serice 外,其他 serice 全部注释。

(2) 在 cli 的 olumes 中加入映射关系:
-./peer/:/opt/gopath/src/github.com/hyperledger/fabric/peer/
-/etc/hosts:/etc/hosts

(3) 注释cli中的 depends_on 和 command:
depends_on:
#- orderer.example.com
#- peer0.org1.example.com
– peer1.org1.example.com
#- peer0.org2.example.com
#- peer1.org2.example.com

#command:/bin/bash -c ‘./scripts/script.sh ${CHANNEL_NAME}; sleep $TIMEOUT’

(4) 修改cli中的环境变量
CORE_PEER_ADDRESS=peer1.org1.example.com:7051

3. 修改base/peer-base.yaml,同VM1的修改。

III. VM3配置:

1. 修改 /etc/hosts 的映射关系
10.112.122.69 orderer.example.com

2. 修改docker-compose-cli.yaml
(1) VM3 上运行 peer2 节点,因此除 peer0.org2.example.com 和 cli serice 外,其他 serice 全部注释。

(2) 在cli的 olumes 中加入映射关系:
– ./peer/:/opt/gopath/src/github.com/hyperledger/fabric/peer/
-/etc/hosts:/etc/hosts

(3) 注释cli中的 depends_on 和 command :
depends_on:
#- orderer.example.com
#- peer0.org1.example.com
#- peer1.org1.example.com
– peer0.org2.example.com
#- peer1.org2.example.com

#command:/bin/bash -c ‘./scripts/script.sh ${CHANNEL_NAME}; sleep $TIMEOUT’

(4) 修改cli中的环境变量
CORE_PEER_LOCALMSPID=”Org2MSP”
CORE_PEER_ADDRESS=peer0.org2.example.com:7051
CORE_PEER_TLS_ROOTCERT_FILE=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org2.example.com/peers/peer0.org2.example.com/tls/ca.crt
CORE_PEER_MSPCONFIGPATH=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org2.example.com/users/[email protected]/msp

3. 修改base/peer-base.yaml,同VM1。

IV. VM4配置:

1. 修改/etc/hosts的映射关系
peer1.org2.example.com 使用了 peer0.org2.example.com 作为它的初始化节点,因此需要在映射关系中加入 VM3 的 ip 地址
10.112.122.69 orderer.example.com
10.112.122.12 peer0.org2.example.com

2. 修改docker-compose-cli.yaml
(1) VM4运行peer3,因此除peer1.org2.example.com和cliserice 外,其他serice全部注释

(2) 在cli的olumes中加入映射关系:
-./peer/:/opt/gopath/src/github.com/hyperledger/fabric/peer/
-/etc/hosts:/etc/hosts

(3) 修改cli中的 depends_on 和 command:
depends_on:
– peer1.org2.example.com
#command:/bin/bash -c ‘./scripts/script.sh ${CHANNEL_NAME}; sleep $TIMEOUT’

(4) 修改cli中的环境变量
CORE_PEER_LOCALMSPID=”Org2MSP”
CORE_PEER_ADDRESS=peer1.org2.example.com:7051
CORE_PEER_TLS_ROOTCERT_FILE=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org2.example.com/peers/peer0.org2.example.com/tls/ca.crt
CORE_PEER_MSPCONFIGPATH=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/peerOrganizations/org2.example.com/users/[email protected]/msp

3. 修改base/peer-base.yaml,同VM1。

V. VM5配置如下:
1. 修改docker-compose-cli.yaml
除orderer外的其他 serice 全部注释,即只启动 orderer 。

2.4 启动多节点Fabric集群

1.启动orderer
进入到 VM5 的 fabric/examples/e2e_cli 目录下,运行
docker-compose -f docker-compose-cli.yaml up -d

此时终端会出现大量记录,当出现Beginning to serice requests时,orderer启动完成。有了 orderer 之后,就可以通过它来管理 channel 。

2.启动 org1的第一个节点 peer0 ,即 peer0.org1.example.com

进入到 VM1 的 fabric/examples/e2e_cli 目录下,运行
docker-compose -f docker-compose-cli.yaml up -d

此时通过docker ps -a 命令可以看到成功启动了 peer0.org1.example.com 和 cli 两个容器。

接下来实现创建 channel 、加入 channel 和安装 chanicode 。首先进入到cli容器内:
docker exec -it cli bash

cli 与 orderer 之间的通讯使用 tls 加密,设置环境变量 ORDERER_CA 以作建立握手的凭证:
$ORDERER_CA=/opt/gopath/src/github.com/hyperledger/fabric/peer/crypto/ordererOrganizations/example.com/orderers/orderer.example.com/msp/cacerts/ca.example.com-cert.pem

注:以下所有涉及到 ORDERER_CA 环境变量的命令都需预先给该变量赋值。

进入到 cli 容器后会自动跳转到 /opt/gopath/src/github.com/hyperledger/fabric/peer 目录,即工作目录,通过compose文件的配置,该目录映射为宿主机的 /e2e_cli/peer 。

在工作目录下输入以下命令,创建名为 mychannel 的 channel :
peer channel create -o orderer.example.com:7050 -c mychannel -f ./channel-artifacts/channel.tx –tls –cafile $ORDERER_CA

channel 创建成功后,会在当前目录下生成mychannel.block文件。每个peer 在向 orderer 发送 join channel 交易的时候,需要提供这个文件才能加入到 mychannel 中,因此运行在其他 VM 上的 peer 需要得到 mychannel.block 文件来加入到 mychannel 中。由于之前的文件映射关系, mychannel.block 文件可在宿主机的 e2e_cli/peer 目录下获取,这时可以通过宿主机把 mychannel.block 拷贝到 VM2, VM3, VM4的 e2e_cli/peer 目录下。

把 peer0.org1.example.com 加入到 mychannel 中:
peer channel join -b mychannel.block

更新 mychannel 中 org1 的 anchor peer 的信息:
peer channel update -o orderer.example.com:7050 -c mychannel -f ./channel-artifacts/Org1MSPanchors.tx –tls –cafile $ORDERER_CA

安装 chaincode 示例 chaincode_example02 到 peer0.org1.example.com 中:
peer chaincode install -nmycc – 1.0 -p
github.com/hyperledger/fabric/examples/chaincode/go/chaincode_example02

这时候 chaincode 代码已经安装到了 peer0 节点上,但并未实例化运行。接下来先配置好其他节点。

3. 启动 org1 的第二个节点 peer1,即 peer1.org1.example.com

进入到VM2的 fabric/examples/e2e_cli 目录下,运行
docker-compose -f docker-compose-cli.yaml up -d

进入到 cli 容器内部:
docker exec -it cli bash

由于前面已经把 mychannel.block 拷贝到了 VM2 的 e2e_cli/peer 目录下,因此 mychannel.block 可通过容器内的 /opt/gopath/src/github.com/hyperledger/fabric/peer 目录访问。

把 peer1.org1.example.com 加入到 mychannel 中:
peer channel join -b mychannel.block

安装 chaincode_example02 到 peer1.org1.example.com 中:
peer chaincode install -nmycc – 1.0 –p
github.com/hyperledger/fabric/examples/chaincode/go/chaincode_example02

4. 启动 org2 的第一个节点 peer2,即 peer0.org2.example.com

进入到 VM3 的 fabric/examples/e2e_cli 目录下,运行
docker-compose-f docker-compose-cli.yaml up -d

进入到cli容器内部:
docker exec -it cli bash

把peer0.org2.example.com加入到mychannel中:
peer channel join -b mychannel.block

更新 mychannel 中 org2 的 anchor peer 的信息:
peer channel update -oorderer.example.com:7050 -c mychannel -f ./channel-artifacts/Org2MSPanchors.tx –tls –cafile $ORDERER_CA

安装 chaincode_example02 到 peer0.org2.example.com 中:
peer chaincode install -nmycc – 1.0 -p
github.com/hyperledger/fabric/examples/chaincode/go/chaincode_example02

5. 启动org2的第二个节点 peer3 ,即启动 peer1.org2.example.com

进入到 VM4 的 fabric/examples/e2e_cli 目录下,运行
docker-compose-f docker-compose-cli.yaml up -d

首先进入到cli容器内部:
docker exec -it cli bash

把 peer1.org2.example.com 加入到 mychannel 中:
peer channel join -b mychannel.block

安装 chaincode_example02 到 peer1.org2.example.com 中:

peer chaincode install -nmycc – 1.0 -p
github.com/hyperledger/fabric/examples/chaincode/go/chaincode_example02

2.5 运行chaincode

通过前面的步骤,整个 多节点Fabric 网络已经运行起来了,每个peer都加入到了标识为 mychannel 的 channel 中,并且都安装了一个简单的 chaincode (该 chaincode 在安装时被标识为 mycc ) 。下面步骤运行和维护 chaincode。

1. 实例化chaincode

chaincode 的实例化可在任意 peer 上进行,并且 chaincode 只能被实例化一次,下面以在 peer0.org2.example.com 上实例化 chaincode 为例。

首先登录VM3并进入到cli容器内部运行:
peer chaincode instantiate -o orderer.example.com:7050 –tls –cafile $ORDERER_CA -C mychannel-nmycc – 1.0 -c ‘{“Args”:[“init”,”a”,”100″,”b”,”200″]}’ -P “OR (‘Org1MSP.member’,’Org2MSP.member’)”

这时候会构建一个新的容器来运行chaincode,通过docker ps -a 命令可以看到新容器:

de-peer0.org2.example.com-mycc-1.0

上述实例化中,我们对两个变量‘a’和‘b’分别赋予初值100和200,通过 channel 它们的值被同步到了其他peer的账本上,即使其他peer还没有构建运行 chaincode 的容器。

2. 执行 chaincode 的 query 交易

由于 chaincode 已经被 peer0.org2.example.com 实例化了,因此其他 peer 不需要再次实例化它了,但是 chaincode 的状态(world state)却是已经记录在各个peer的账本上的。

接下来我们在peer0.org1.example.com上查看chaincode的状态,登录到VM1上并进入cli容器内部执行:
peer chaincode query -C mychannel -nmycc -c ‘{“Args”:[“query”,”a”]}’

上面的命令查看 mycc 中变量 a 的值,由于在 peer 跟 chaincode 发生互动之前还不存在运行 chaincode 的容器,因此第一次交互的时候需要先构建运行 chaincode 的容器,等待一段时间后返回结果:100 。

此时通过 docker ps -a 命令能看到新容器:

de-peer0.org1.example.com-mycc-1.0

该值与实例化时的赋值一致,说明 peer0.org1 和 peer0.org2 两个 peer 可以相互通信。

3. 执行chaincode的inoke交易

接下来,我们执行一个 inoke 交易,使得变量 a 向变量 b 转帐 20,得到最终值为[“a”:”80″,”b”:”220″]。

登录到VM2并进入到cli容器中中通过以下命令查询mycc的状态:
peer chaincode query -C mychannel -n mycc -c ‘{“Args”:[“query”,”a”]}’

稍作等待后返回结果为100,下面执行 inoke 交易,改变 a 的值为 80 :
peer chaincode inoke -oorderer.example.com:7050 –tls –cafile $ORDERER_CA -C mychannel -n mycc -c ‘{“Args”:[“inoke”,”a”,”b”,”20″]}’

4. 再次执行 chaincode 的 query 交易

在peer1.org1.example.com 上重复以上查看 chaincode 的步骤,得到返回结果为 80 ,说明测试通过,至此,Fabric网络构建完毕,各个部件工作正常。

2.6 更新chaincode

通过 channel upgrade 命令可以使得 chaincode 更新到最新的版本,而低版本 chaincode 将不能再使用。

登录到VM1的 cli 容器中再次安装 chaincode_example02 ,但赋予它更高的版本号 2.0:
peer chaincode install -n mycc – 2.0 -p
github.com/hyperledger/fabric/examples/chaincode/go/chaincode_example02

在 VM1 的 cli 容器升级 chaincode ,添加两个变量 ‘c’和‘d’:

peer chaincode upgrade -o orderer.example.com:7050 –tls –cafile $ORDERER_CA -n mycc – 2.0 -c ‘{“Args”:[“init”,”c”, “10”,”d”,”20″]}’

等待一段时间后,可以通过docker ps -a 来查看新容器构建的容器,该容器的名称为:
de-peer0.org1.example.com-mycc-2.0

通过以下命令查询c的变量:
peer chaincode -n mycc -C mychannel – 2.0 -c ‘{“Args”:[“query”,”c”]}’
返回结果为10

再次查询a的变量:
peer chaincode -n mycc -C mychannel – 2.0 -c'{“Args”:[“query”,”a”]}’

返回结果为80,说明更新 chaincode 成功。

这时候对账本的修改会通过 orderer 同步到其他 peer 上,但是在其他 peer 上将无法查看或更改 chaincode 的状态,因为它们还在使用旧版的 chaincode ,所以其他 pee r要想正常访问还需再次安装 chaincode ,并且设置相同的版本号 ( chaincode 代码没发生改变,只是安装时版本号更新为 2.0 ),命令如下:

peERChaincode install -n mycc – 2.0 –p
github.com/hyperledger/fabric/examples/chaincode/go/chaincode_example02

结束语
本连载介绍了如何构建多节点Fabric集群的基本方法。为说明原理,安装配置过程是全手动的,因此比较繁琐。今后我们将介绍如何使用容器平台K8S等部署Fabric,敬请关注。

全文下载:http://8btc.com/doc-iew-1376.html

温馨提示:

文章标题:超级账本Fabric 1.0 多节点集群的部署(3)

文章链接:https://www.btchangqing.cn/2712.html

更新时间:2020年04月07日

本站大部分内容均收集于网络,若内容若侵犯到您的权益,请联系我们,我们将第一时间处理。

超级账本Fabric 1.0 多节点集群的部署(3)
区块链

央行数字货币会对利率政策带来什么影响?

2020-4-6 17:06:57

区块链

BitMex发布比特币挖矿成本曲线报告,预测减半后比特币算力将下降29%

2020-4-6 17:07:40

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索