GG修改器破解版下载地址:https://ghb2023zs.bj.bcebos.com/gg/xgq/ggxgq?GGXGQ
大家好,今天小编为大家分享关于不root如何用GG修改器_怎样无root使用gg修改器的内容,赶快来一起来看看吧。
————————————————-官图镇贴——————————————————-
接下来我会给大家带来Tidb的安装部署的整体步骤,文档当前环境是只使用了一台虚拟机进行的混合部署,但是大家放心正常的组件都是包括了的(麻雀虽小五脏俱全)
虚拟机的配置(PD*1,tidb*1,tikv*3,tiflash*1,grafana*1,prometheus*1,alertmanager*1)
内存8G 运行后free还有1个G
磁盘50G 运行后还剩29G
大家酌情配置即可
[tidb@localhost ~]$
[root@localhost ~]
[root@localhost ~]# useradd tidb
[root@localhost ~]# su – tidb
https:///zh/munity/
请勾选 “同意 PingCAP 社区软件许可协议与隐私政策”
点击立即下载,下载的是最新版本的tidb本文档是5.4.0
如果需要下载其他版本 ,以下为样例,请自行修改所需要的版本号
[tidb@localhost ~]$ wget https://download.pingcap.org/munity-server-v5.3.0-linux-amd64.tar.gz
[tidb@localhost ~]$ wget https://download.pingcap.org/munity-server-v5.2.0-linux-amd64.tar.gz
[tidb@localhost ~]$ ls
munity-server-v5.4.0-linux-amd64.tar.gz
[tidb@localhost ~]$ tar zxf munity-server-v5.4.0-linux-amd64.tar.gz
[tidb@localhost ~]$ ls
munity-server-v5.4.0-linux-amd64 munity-server-v5.4.0-linux-amd64.tar.gz
[tidb@localhost ~]$ rm -rf munity-server-v5.4.0-linux-amd64.tar.gz 为了省地方删除下载的压缩包
[tidb@localhost ~]$ cd munity-server-v5.4.0-linux-amd64/
由于是离线本地安装所以这里要执行安装包中自带的local_install.sh
[tidb@localhost munity-server-v5.4.0-linux-amd64]$ ./local_install.sh
Disable telemetry success
Successfully set mirror to /home/tidb/munity-server-v5.4.0-linux-amd64
Detected shell: bash
Shell profile: /home/tidb/.bash_profile
/home/tidb/.bash_profile has been modified to to add tiup to PATH
open a new terminal or source /home/tidb/.bash_profile to use it
Installed path: /home/tidb/.tiup/bin/tiup
===============================================
1. source /home/tidb/.bash_profile
2. Have a try: tiup playground
这里有几个值得注意的地方
[tidb@localhost munity-server-v5.4.0-linux-amd64]$ cat /home/tidb/.bash_profile ##local_install.sh 为我们声明了tidb的相关bin文件的位置
# .bash_profile
# Get the aliases and functions
if [ -f ~/.bashrc ]; then
. ~/.bashrc
fi
# User specific environment and startup programs
PATH=$PATH:$HOME/.local/bin:$HOME/bin
export PATH
export PATH=/home/tidb/.tiup/bin:$PATH
export PATH=/home/tidb/.tiup/bin:$PATH
若需将镜像切换到其他目录,可以通过手动执行 tiup mirror set <mirror-dir> 进行切换。如果需要切换到在线环境,可以执行 tiup mirror set https://tiup-mirrors.
[tidb@localhost .tiup]$ pwd
/home/tidb/.tiup
[tidb@localhost .tiup]$ tiup cluster template > topology.yaml ##默认模板
[tidb@localhost .tiup]$ tiup cluster template –full > topology.yaml ## 单台机器部署多个实例
[tidb@localhost .tiup]$ tiup cluster template –multi-dc > topology.yaml ## 跨机房部署 TiDB 集群
我这里是单机部署的先放一个我的配置文件,配置项是很灵活的如果是多台部署可以按需修改即可,保证相同服务的端口和安装位置不要冲突
[tidb@localhost .tiup]$ cat topology2.yaml
global:
user: "tidb"
ssh_port: 22
deploy_dir: "/tidb-deploy"
data_dir: "/tidb-data"
arch: "amd64"
server_configs:
pd:
replication.location-labels: ["zone","dc","rack"]
monitored:
node_exporter_port: 9100
blackbox_exporter_port: 9115
pd_servers:
- host: 192.168.135.148
ssh_port: 22
client_port: 2379
peer_port: 2380
deploy_dir: "/tidb-deploy/pd-2379"
data_dir: "/tidb-data/pd-2379"
log_dir: "/tidb-deploy/pd-2379/log"
tidb_servers:
- host: 192.168.135.148
port: 4000
status_port: 10080
deploy_dir: "/tidb-deploy/tidb-4000"
log_dir: "/tidb-deploy/tidb-4000/log"
tikv_servers:
- host: 192.168.135.148
port: 20160
status_port: 20180
deploy_dir: "/tidb-deploy/tikv-20160"
data_dir: "/tidb-data/tikv-20160"
log_dir: "/tidb-deploy/tikv-20160/log"
config:
server.labels:
zone: bj
dc: bja
rack: rack1
- host: 192.168.135.148
port: 20161
status_port: 20181
deploy_dir: "/tidb-deploy/tikv-20161"
data_dir: "/tidb-data/tikv-20161"
log_dir: "/tidb-deploy/tikv-20161/log"
config:
server.labels:
zone: bj
dc: bja
rack: rack2
- host: 192.168.135.148
port: 20162
status_port: 20182
deploy_dir: "/tidb-deploy/tikv-20162"
data_dir: "/tidb-data/tikv-20162"
log_dir: "/tidb-deploy/tikv-20162/log"
config:
server.labels:
zone: bj
dc: bja
rack: rack3
tiflash_servers:
- host: 192.168.135.148
tcp_port: 9000
http_port: 8123
flash_service_port: 3930
flash_proxy_port: 20170
flash_proxy_status_port: 20292
metrics_port: 8234
deploy_dir: "/tidb-deploy/tiflash-9000"
data_dir: "/tidb-data/tiflash-9000"
log_dir: "/tidb-deploy/tiflash-9000/log"
monitoring_servers:
- host: 192.168.135.148
grafana_servers:
- host: 192.168.135.148
alertmanager_servers:
- host: 192.168.135.148
到这里可以短暂休息一下
详细检查项请参阅Tidb的官方建议https://docs./zh/tidb/stable/check-before-deployment
本次安装并没有全部按照官方的建议进行设置
[root@localhost ~]# echo “vm.swappiness = 0”>> /etc/sysctl.conf
[root@localhost ~]# swapoff -a
内核参数vm.swappiness控制换出运行时内存的相对权重,参数值大小对如何使用swap分区有很大联系。值越大,表示越积极使用swap分区,越小表示越积极使用物理内存。默认值swappiness=60,表示内存使用率超过100-60=40%时开始使用交换分区。swappiness=0的时候表示最大限度使用物理内存,然后才是 swap空间;swappiness=100的时候表示积极使用swap分区,并把内存上的数据及时搬运到swap空间。
[root@localhost ~]# vi /etc/sysconfig/selinux
SELINUX=disabled
[root@localhost ~]# setenforce 0 ##上述配置配置文件修改之后需要重启OS ,这样做可以临时先关闭selinux
selinux是 linux系统自带的一个安全模块,如果不想关闭就需要就具体的资源进行设置,所以为了省事儿还是关了吧
[root@localhost ~]# systemctl stop firewalld.service
[root@localhost ~]# systemctl disable firewalld.service
因为在 TiDB 集群中,需要将节点间的访问端口打通才可以保证读写请求、数据心跳等信息的正常的传输。在普遍线上场景中,数据库到业务服务和数据库节点的网络联通都是在安全域内完成数据交互。如果没有特殊安全的要求,建议将目标节点的防火墙进行关闭。
[root@localhost ~]# visudo
tidb ALL=(ALL) NOPASSWD: ALL
tidb用户需要创建文件启动服务等操作这了配置sudo后为其提供了权限
[root@localhost yum.repos.d]# echo “fs.file-max = 1000000”>> /etc/sysctl.conf
[root@localhost yum.repos.d]# echo “net.core.somaxconn = 32768”>> /etc/sysctl.conf
[root@localhost yum.repos.d]# echo “net.ipv4.tcp_tw_recycle = 0”>> /etc/sysctl.conf
[root@localhost yum.repos.d]# echo “net.ipv4.tcp_syncookies = 0”>> /etc/sysctl.conf
[root@localhost yum.repos.d]# echo “vm.mit_memory = 1”>> /etc/sysctl.conf
[root@localhost yum.repos.d]# sysctl -p
fs.file-max 表示系统级别的能够打开的文件句柄的数量。
net.core.somaxconn socket监听(listen)的backlog上限
net.ipv4.tcp_tw_recycle 表示开启TCP连接中TIME-WAIT sockets的快速回收,默认为0,表示关闭。
net.ipv4.tcp_syncookies 在服务器资源(并非单指端口资源,拒绝服务有很多种资源不足的情况)不足的情况下,尽量不要拒绝TCP的syn(连接)请求,尽量把syn请求缓存起来,留着过会儿有能力的时候处理这些TCP的连接请求”。
vm.mit_memory
0:表示内核将检查是否有足够的可用内存供应用进程使用;如果有足够的可用内存,内存申请允许;否则,内存申请失败,并把错误返回给应用进程。
1:表示内核允许分配所有的物理内存,而不管当前的内存状态如何。
2: 表示内核允许分配超过所有物理内存和交换空间总和的内存。
对tidb用户使用资源进行设置
cat << EOF >>/etc/security/limits.conf
tidb soft nofile 1000000
tidb hard nofile 1000000
tidb soft stack 32768
tidb hard stack 32768
EOF
soft 指的是当前系统生效的设置值(警告)
hard 表明系统中所能设定的最大值(错误)
nofile – 打开的文件描述符的最大数目
stack – 最大堆栈大小(KB)
由于第一步我们已经创建的tidb用户这一步只需要设置密码与配置互信
本文档是单节点混合安装,如果是多节点部署需要保证当前节点对所有节点都可以免密登录
[root@localhost ~]# passwd tidb
[root@localhost ~]# su – tidb
[tidb@localhost .tiup]$ ssh-keygen ##一路回车即可生成密钥对注意是在tidb用户下执行
[tidb@localhost .tiup]$ ls /home/tidb/.ssh/* ##以下就是生成的公钥和私钥
/home/tidb/.ssh/id_rsa /home/tidb/.ssh/id_rsa.pub
[tidb@localhost .tiup]$ ssh-copy-id -i ~/.ssh/id_rsa.pub 192.168.135.148 ##建立对192.168.135.148 主机的免密登录 这里需要免密登录哪台机器就填写哪台机器的ip地址即可
[root@localhost yum.repos.d]# yum -y install numactl
NUMA 绑核工具的使用,主要为了防止 CPU 资源的争抢,引发性能衰退。
关闭透明大页(即 Transparent Huge Pages,缩写为 THP)。数据库的内存访问模式往往是稀疏的而非连续的。当高阶内存碎片化比较严重时,分配 THP 页面会出现较高的延迟。
将存储介质的 I/O 调度器设置为 noop。对于高速 SSD 存储介质,内核的 I/O 调度操作会导致性能损失。将调度器设置为 noop 后,内核不做任何操作,直接将 I/O 请求下发给硬件,以获取更好的性能。同时,noop 调度器也有较好的普适性。
[root@localhost /]# echo never > /sys/kernel/mm/transparent_hugepage/defrag
[root@localhost ~]# echo never > /sys/kernel/mm/transparent_hugepage/enabled
[root@localhost ~]# echo noop > /sys/block/sda/queue/scheduler ##sda是tidb所使用的磁盘
……终于马上就要结束了
感谢为我们的美好生活奋斗过的革命先烈们!!!
安装前预检查
[tidb@localhost .tiup]$ pwd
/home/tidb/.tiup
[tidb@localhost .tiup]$ tiup cluster check ./topology.yaml –user tidb
检查结果不一定都是PASS可以根据具体提示进行修改或者忽略
[tidb@localhost .tiup]$ tiup cluster deploy tidb-jiantest v5.4.0 ./topology.yaml --user tidb
[tidb@localhost ~]$ tiup cluster display tidb-jiantest
tiup is checking updates ponent cluster ...
ponent `cluster`: /home/tidb/.ponents/cluster/v1.9.0/tiup-cluster /home/tidb/.ponents/cluster/v1.9.0/tiup-cluster display tidb-jiantest
Cluster type: tidb
Cluster name: tidb-jiantest
Cluster version: v5.4.0
Deploy user: tidb
SSH type: builtin
ID Role Host Ports OS/Arch Status Data Dir Deploy Dir
-- ---- ---- ----- ------- ------ -------- ----------
192.168.135.148:9093 alertmanager 192.168.135.148 9093/9094 linux/x86_64 Down /tidb-data/alertmanager-9093 /tidb-deploy/alertmanager-9093
192.168.135.148:3000 grafana 192.168.135.148 3000 linux/x86_64 Down - /tidb-deploy/grafana-3000
192.168.135.148:2379 pd 192.168.135.148 2379/2380 linux/x86_64 Down /tidb-data/pd-2379 /tidb-deploy/pd-2379
192.168.135.148:9090 prometheus 192.168.135.148 9090/12020 linux/x86_64 Down /tidb-data/prometheus-9090 /tidb-deploy/prometheus-9090
192.168.135.148:4000 tidb 192.168.135.148 4000/10080 linux/x86_64 Down - /tidb-deploy/tidb-4000
192.168.135.148:9000 tiflash 192.168.135.148 9000/8123/3930/20170/20292/8234 linux/x86_64 N/A /tidb-data/tiflash-9000 /tidb-deploy/tiflash-9000
192.168.135.148:20160 tikv 192.168.135.148 20160/20180 linux/x86_64 N/A /tidb-data/tikv-20160 /tidb-deploy/tikv-20160
192.168.135.148:20161 tikv 192.168.135.148 20161/20181 linux/x86_64 N/A /tidb-data/tikv-20161 /tidb-deploy/tikv-20161
192.168.135.148:20162 tikv 192.168.135.148 20162/20182 linux/x86_64 N/A /tidb-data/tikv-20162 /tidb-deploy/tikv-20162
Total nodes: 9
[tidb@localhost ~]$tiup cluster start tidb-jiantest –init ##第一次启动之后可以直接通过tiup cluster start/stop tidb-jiantest 来启停
The root password of TiDB database has been changed.
The new password is: ’6*G983^Z2Swxrj7g_!’.
最后会提示tidb的root密码注意记录哦!!!
查看集群状态
[tidb@localhost ~]$ tiup cluster display tidb-jiantest
tiup is checking updates ponent cluster ...
ponent `cluster`: /home/tidb/.ponents/cluster/v1.9.0/tiup-cluster /home/tidb/.ponents/cluster/v1.9.0/tiup-cluster display tidb-jiantest
Cluster type: tidb
Cluster name: tidb-jiantest
Cluster version: v5.4.0
Deploy user: tidb
SSH type: builtin
Dashboard URL: http://192.168.135.148:2379/dashboard
ID Role Host Ports OS/Arch Status Data Dir Deploy Dir
-- ---- ---- ----- ------- ------ -------- ----------
192.168.135.148:9093 alertmanager 192.168.135.148 9093/9094 linux/x86_64 Up /tidb-data/alertmanager-9093 /tidb-deploy/alertmanager-9093
192.168.135.148:3000 grafana 192.168.135.148 3000 linux/x86_64 Up - /tidb-deploy/grafana-3000
192.168.135.148:2379 pd 192.168.135.148 2379/2380 linux/x86_64 Up|L|UI /tidb-data/pd-2379 /tidb-deploy/pd-2379
192.168.135.148:9090 prometheus 192.168.135.148 9090/12020 linux/x86_64 Up /tidb-data/prometheus-9090 /tidb-deploy/prometheus-9090
192.168.135.148:4000 tidb 192.168.135.148 4000/10080 linux/x86_64 Up - /tidb-deploy/tidb-4000
192.168.135.148:9000 tiflash 192.168.135.148 9000/8123/3930/20170/20292/8234 linux/x86_64 Up /tidb-data/tiflash-9000 /tidb-deploy/tiflash-9000
192.168.135.148:20160 tikv 192.168.135.148 20160/20180 linux/x86_64 Up /tidb-data/tikv-20160 /tidb-deploy/tikv-20160
192.168.135.148:20161 tikv 192.168.135.148 20161/20181 linux/x86_64 Up /tidb-data/tikv-20161 /tidb-deploy/tikv-20161
192.168.135.148:20162 tikv 192.168.135.148 20162/20182 linux/x86_64 Up /tidb-data/tikv-20162 /tidb-deploy/tikv-20162
Total nodes: 9
tidb的登录地址信息打印在tiup cluster display的信息中“192.168.135.148:4000 tidb 192.168.135.148 4000/10080 ”
[tidb@localhost ~]$ mysql -uroot -h192.168.135.148 -P4000 -p6*G983^Z2Swxrj7g_! ##可能需要提前安装一个mysql的客户端 本文档采用 yum install mariadb 这个mariadb就是mysql的开源版本感兴趣的小伙伴可以去百度一下
e to the MariaDB monitor. Commands end with ; or g.
Your MySQL connection id is 79
Server version: 5.7.25-TiDB-v5.4.0 TiDB Server (Apache License 2.0) Community Edition, MySQL 5.patible
Copyright (c) 2000, 2018, Oracle, MariaDB Corporation Ab and others.
Type ’help;’ or ’h’ for help. Type ’c’ to clear the current input statement.
MySQL [(none)]> show databases;
+--------------------+
| Database |
+--------------------+
| INFORMATION_SCHEMA |
| METRICS_SCHEMA |
| PERFORMANCE_SCHEMA |
| mysql |
| test |
+--------------------+
5 rows in set (0.00 sec)
MySQL [(none)]> create database jian;
Query OK, 0 rows affected (0.10 sec)
MySQL [(none)]> create table jian(id int);
ERROR 1046 (3D000): No database selected
MySQL [(none)]> create table jian.jiantb(id int);
Query OK, 0 rows affected (0.10 sec)
MySQL [(none)]> insert into jian.jiantb values(1);
Query OK, 1 row affected (0.02 sec)
MySQL [(none)]> use jian
Database changed
MySQL [jian]> select * from jiantb;
+------+
| id |
+------+
| 1 |
+------+
1 row in set (0.00 sec)
地址会打印在tiup cluster display的信息中
Dashboard URL: http://192.168.135.148:2379/dashboard 默认 用户名 root 密码6*G983^Z2Swxrj7g_! 密码是初始化集群之后提示的密码
详细监控指标可以登录Grafana进行查看
http://192.168.135.148:3000/ ##登陆地址也可以在tiup cluster display的信息中找到 默认用户名密码 admin admin
到此打完收工,对以上内容有任何问题或者建议意见的小伙伴,欢迎留言。
以上就是关于不root如何用GG修改器_怎样无root使用gg修改器的全部内容,感谢大家的浏览观看,如果你喜欢本站的文章可以CTRL+D收藏哦。
gg修改器怎么改成中文,GG修改器怎么改中文 大小:8.82MB5,590人安装 支持游戏的数据框架内容的修改,使用也是非常的便捷; 整个操作是非常的方便的,而……
下载gg修改器无root使用,无需root,gg修改器让你游戏独霸! 大小:10.46MB4,533人安装 对于游戏爱好者来说,玩游戏不仅是一种娱乐活动,更是一种挑战自己的机会。但有时候……
下载gg修改器中文怎么用_gg修改器中文怎么用教学 大小:4.26MB5,448人安装 大家好,今天小编为大家分享关于gg修改器中文怎么用_gg修改器中文怎么用教学的内容……
下载gg修改器怎么去root,令人惊叹的gg修改器解锁root的神器 大小:11.80MB4,254人安装 在使用Android手机时,难免会遇到一些限制。比如说某些应用需要root权限才能使用,……
下载gg修改器手机版中文版,让游戏更流畅!赞美 gg修改器手机版中文版 大小:4.02MB4,512人安装 对于许多手机游戏玩家来说,游戏的流畅度和体验至关重要。而 gg修改器手机版中文版……
下载gg游戏修改器下载正版中文_GG修改器游戏修改器下载 大小:17.81MB5,518人安装 大家好,今天小编为大家分享关于gg游戏修改器下载正版中文_GG修改器游戏修改器下载……
下载gg修改器ios下载中文_GG修改器ios下载 大小:14.97MB5,427人安装 大家好,今天小编为大家分享关于gg修改器ios下载中文_GG修改器ios下载的内容,赶快……
下载手机GG修改器,手机版gg修改器怎么用 大小:10.83MB5,641人安装 gg修改器手机版v1.0 1、首先打开修改器,再进入游戏。 2、点击修改器浮标切换到修改……
下载GG修改器免root原理_Gg修改器免root怎么使用 大小:6.32MB5,545人安装 大家好,今天小编为大家分享关于GG修改器免root原理_Gg修改器免root怎么使用的内容……
下载王者gg修改器无root_gg修改器王者荣耀版 大小:5.72MB5,521人安装 大家好,今天小编为大家分享关于王者gg修改器无root_gg修改器王者荣耀版的内容,赶……
下载