Lumino多方安全计算平台的使用

浅浅用的环境是:
阿里云轻量型服务器 1核2G 40GBSSD
系统为CentOS7.3
要记得去发邮件申请,申请通过后,再次确认你的ATP地址有效,回复邮件即可。
好了,现在开始讲操作步骤
-----------------------------------------------温柔的分割线--------------------------------------------
第一步:买一台阿里云服务器,学生党一年只要89块。或者用自己的机器也可以,我没用自己的机器,欢迎大佬补充。

第二步:远程连接上云服务器之后,sudo su root 进入管理员权限,然后参考这篇博客安装docker。阿里云CentOS安装Docker

第三步:安装好之后,看GitHub上官方lumino仓库的setup-mpc-client文件夹里的ReadMe.md,按照操作一步步来执行即可完成。

备注:记得一定要先去查看你的docker images,获得到images id之后,再进行其中的sudo docker tag操作。然后这里提供的示例中,存在于一个私钥,按照Larry大佬给的回复,是ATP地址的私钥前置加上0x,然后回车运行即可。

image

7 个赞

好厉害,好厉害,:+1::+1::+1:

1 个赞

对于CentOS终端长时间闲置最终提示警告kernel:unregister_netdevice: waiting for lo to become free.,可以考虑关闭syslog,这玩意并不会影响什么,但是看着就是很烦,具体教程看这里 Centos7 终端报Message from syslogd :kernel:unregister_netdevice

2 个赞

很有帮助!!!!!

1 个赞

昨晚出去唱歌,没有盯着看云服务器,早上起来立马开起来,但是阿里云服务器CentOS有个很操蛋的设定,我是通过阿里云官网进行远程连接,每次连接会刷新一次dos页面,因此很难清楚判断出到底这个image有没有被运行完成。这里有一个我个人的解决方案。

查看阿里云控制台的监控信息:

image

查看是否有一段时间处于高载荷状态,然后又回归空闲状态,那么就表示此时的MPC计算部分已经完成了,接着可以通过

docker rmi <images id>

删除该镜像,但是我这边会提示No such container,因此我直接把云服务器重启了,然后再使用

systemctl start docker

重新运行docker

最后就是耳熟能详的readme部分了,然后运行起来看到我的部分已经完成啦!

image

2 个赞

看起来整个MPC计算部分并没有使用太多的计算资源,我这种最低配的云服务器都可以完成了= =可想而知优化确实做的很到位。

1 个赞

感谢分享:+1: :+1: :+1:

点赞浅浅 :+1:

如果是在Windows系统下开展计算,则需要以管理员身份打开命令行终端,且输入官方教程命令时,需要去掉sudo前缀,例如:官方教程命令为: ```
sudo docker pull gcr.io/lumino-server/setup-mpc-client-bn:1.0.0 ## bn version image

则在windows命令行终端中的命令则需改为: ```
docker pull gcr.io/lumino-server/setup-mpc-client-bn:1.0.0  ## bn version image
2 个赞

感谢分享!给Larry大佬打call!!!

有没有完成可以看这里
https://lumino.latticex.foundation/home
image
运行可以加个 -d 后台运行

1 个赞

原来还有这么个地方可以看,我一直都是看centOS的后台,然后后台不显示了,我只能看那个流量窗口,好东西,浅浅学到了

说个小情况,就是如果运行结束之后,发现

docker rm setup-mpc-client-bn

报出一串很长的很长的东西,大意是该容器无法删除,那么请先执行

docker stop setup-mpc-client-bn

就是先把容器停掉,然后再删除即可。

早上醒来,看了一下Lumino官网的detail,发现我的机器还在run,然后看了眼阿里云,发现流量和内存、CPU等部分的峰值已经渡过,我当时认为是官网的响应比较慢,于是把容器删了,打算运行新的计算。处于保守认知,再次运行被删除的计算私钥,结果发现,哦吼,它是正在校对的阶段,于是让它继续运算了,我原本以为需要再计算的,结果不用,校对过程应该是在云端,否则按照我的容器全删的情况,数据部分早丢失了吧。

文档说的12G,昨天跑的现在看全失败了,原因是磁盘满了,两个文件一个14G一个18G.重跑不知道会不会重新生成,先试试

原来那个家伙是你啊!我说咋个等了辣么久,唉……,我这边跑一次是4GB,bn组