我们提供安全,免费的手游软件下载!
首先,我想分享一下我的小米手机的配置。我选择了这款配置一般的手机主要是因为它具有较大的存储空间,而且对于手机的配置要求并不高。你可以查看我的手机配置的截图:
在手机上安装了Termux app后,我可以使用各种命令进行安装和使用,就像在Linux操作系统上一样。随后,通过Termux安装了openssh,这样我就可以在Windows、Mac等电脑上远程连接到手机。
然后,如何处理IP地址呢?这时候,TailScale就派上用场了。它可以组建局域网,识别出IP地址,使得在可信任的几台机器上使用类似局域网IP变得非常简单。
我现在使用的两个apk的下载地址如下:
https://www.alipan.com/s/kU8qpJ4m5cJ
通过上述步骤,我成功在手机上安装了Tailscale。Tailscale是一种基于WireGuard的虚拟组网工具,它在用户态实现了WireGuard协议,具有开箱即用、高安全性/私密性等特点。通过Tailscale,我可以在不同设备上组建局域网,实现便捷的远程访问。
这几台设备可以组建局域网。例如,我在Windows电脑上部署了某个服务网站,按照常规来说我只能在我的Windows电脑上进行访问。但是通过Tailscale局域网,我可以在我的小米手机和公司的Mac电脑上访问这个服务网站。同时,我可以在阿里云服务器上通过nginx进行代理跳转,实现在任何地方访问这个服务网站。这样,我实际上是在我的公司Windows电脑上进行访问。
关于手机上安装Termux,我选择了一个成熟的Linux终端。此外,我在手机上使用Termux安装了SSH:
pkg update
pkg upgrade
pkg install openssh
然后,在Termux中启动ssh程序并获取手机的ssh登录用户和密码:
sshd
whoami
passwd
现在,我可以在Windows电脑上通过命令进行远程连接到手机:
ssh -p 8022 u0_a461@xxx.xx.xx.xx
我还了解了Hugging Face,它不仅提供了大型模型,还将AI技术的开发变得更加简单和民主化。通过Hugging Face,我可以安装huggingface_hub并在代码中调用,或者通过huggingface-cli命令行进行下载模型。
接下来,我将准备一个大型模型Llama.CPP。它适合在不同的硬件上测试,并且可以在CPU、CUDA或Apple芯片上工作。我将使用Python库来运行Llama.CPP。
我准备了大型模型Llama.CPP的开源仓库地址: https://github.com/ggerganov/llama.cpp ,以及要下载的大型模型地址: https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGUF
我安装了所需的软件库,并通过huggingface-cli下载了大型模型:
huggingface-cli download TheBloke/Llama-2-7B-Chat-GGUF llama-2-7b-chat.Q4_K_M.gguf --local-dir . --local-dir-use-symlinks False
下载完毕后,我准备了代码文件main.py,通过执行命令python3 main.py来运行模型。
如果你想更快地查看效果,可以在带有GPU的服务器上部署,或者在Google的Colab上免费享用速度。
最后,如果通过命令下载模型比较慢,或者特殊网络无法实现,可以直接在我的阿里云盘中进行打包下载。同时,我也提供了一个38G的大型模型,有兴趣的可以下载试玩一下。
如有资料更新,我会第一时间进行处理。可以在我的公众号“那个曾经的少年回来了”后台回复消息“手机部署大模型”,即可获取最新的阿里云盘工具和模型分享链接。
热门资讯