posted by 떠돌이늑대 2019. 6. 27. 14:52
  전장 전폭 전고 휠베이스 엔진 적재치수 (길이, 넓이)
툰랜드 5310 1870 1880 3150 디젤 2.8 1520 , 1580
렉스턴 스포츠 5095 1950 1870 3100 디젤 2.2 1300 , 1570
렉스턴 스포츠 칸 5405 1950 1855 3210 디젤 2.2 1610 , 1570
콜로라도 5403 1887 1793 3259 가솔린 3.6 1567 , 1468
레인저 5362 1850 1848 3220 디젤 2.0 1549 , 1560
랭글러 글래디에이터 5539 1875 1882 3487 가솔린 3.6 1531 , 1442

'차이야기' 카테고리의 다른 글

티볼리 브레이크등 점등상태  (0) 2023.01.22
차량 제원 비교  (0) 2022.03.07
전기차를 선택하기가 아직까지 망설여지는 이유  (0) 2020.08.03
전기충전  (0) 2020.05.21
짐니 시에라  (0) 2018.10.15
posted by 떠돌이늑대 2019. 6. 14. 13:49

 

한 냥이는 개냥이, 돼냥이,산책냥이가 되었고, 한 냥이는 무릎냥이가 되어 있구나.

'반려묘 이야기' 카테고리의 다른 글

20190629 앙고  (0) 2019.07.02
근황  (1) 2018.10.19
유기묘 입양!  (0) 2018.06.12
posted by 떠돌이늑대 2019. 6. 14. 13:03
WSREP_SST: [ERROR] xtrabackup_checkpoints missing, failed innobackupex/SST on donor (20190614 19:30:21.392)
WSREP_SST: [ERROR] Cleanup after exit with status:2 (20190614 19:30:21.394)

 

MariaDB 버전변경하면서 테스트를 하던 중 Galera Cluster를 새로 구성하면서, 다른 2 node 들이 위와 같은 에러가

발생하면서 DB 구동이 실패가 되었었다.

무슨 문제였는지  알수가 없었다.

wsrep_sst_method 옵션을 변경해도 error 가 발생되면서 DB 구동이 실패가 되었었다.

 

첫번째 노드의 data가 들어있는 디렉토리를 살펴보면,

 

innobackup.backup.log 라는 파일이 있다.

 

다른 노드에서 sst를 요청하면 과정과 결과가 기록이 된다.

 

2019-06-14 19:30:21 140471879198592 [ERROR] InnoDB: Tablespaces for test/t1 have been found in two places;
Location 1: SpaceID: 21550 File: ./test/t1.ibd
Location 2: SpaceID: 21550 File: /data/test/test/t1.ibd
You must delete one of them.
190614 19:30:21 [ERROR] mysqld got signal 6

 

이러한 기록들이 있었다.

 

저 테이블에 문제가 있었나보다.

 

실제로 첫번째 node 의 데이터를 mysqldump 로 백업하려했더니 저 테이블때문에 계속 실패했다. 다른 한 테이블도

그래서 제외시켜서 백업했더니 잘 되었었다.

 

mysqldump -uroot -predhat --databases test --ignore-table=test.t1 --ignore-table=test.t2 > /mysqldump/test.sql

결국 첫번째 노드에서 문제있었던 두 테이블을 삭제하니

 

Galera Cluster도 정상으로 되었다.

 

 

 

 

'컴이야기 > MariaDB' 카테고리의 다른 글

wsrep_sst_method with IPv6  (0) 2019.10.21
Maxscale 2.3.6  (1) 2019.07.12
Galera Cluster Replication.  (0) 2019.03.18
maxscale 을 사용해보자. [진행중]  (0) 2018.11.07
Galera cluster 설치 삽질과정 (완료)  (0) 2018.11.02
posted by 떠돌이늑대 2019. 3. 18. 15:01

2개의 Galera Cluster를 만들고, 각 클러스터의 한 노드끼리 서로간의 Replication 설정을 했다.

 

그러나 왠걸 Replication  설정을 한 노드들끼리의 복제는 되지만, 다른 노드에서 실행하면 클러스터 내부에서만 복제가 되고, 다른 클러스터로는 복제가 되질 않았다.

 

무엇일까... 찾아보게 되었고,

 

서로 Replication을 맺어준 노드에서 my.cnf 에

 

이 옵션값을 선언해 주어야지만 다른 노드에서의 명령도 전달복제가 되었다.

 

log_slave_updates 의 값을 선언을 해주어야 한다.

 

log_slave_updates

  • Description: If set to 0, the default, updates on a slave received from a master during replication are not logged in the slave's binary log. If set to 1, they are. The slave's binary log needs to be enabled for this to have an effect. Set to 1 if you want to daisy-chain the slaves.
  • Commandline: --log-slave-updates
  • Scope: Global
  • Dynamic: No
  • Data Type: boolean
  • Default Value: OFF

'컴이야기 > MariaDB' 카테고리의 다른 글

Maxscale 2.3.6  (1) 2019.07.12
Galera Cluster error  (0) 2019.06.14
maxscale 을 사용해보자. [진행중]  (0) 2018.11.07
Galera cluster 설치 삽질과정 (완료)  (0) 2018.11.02
xtrabackup 설치해보기 1 - 의존성 리스트  (0) 2018.10.25
posted by 떠돌이늑대 2018. 11. 7. 14:33

maxscale 이 뭘까?

 

수평 확장 배치에서 보안,확장성 및 고 가용성을 관리하는 차세대 데이터베이스 프록시

이러한 말들을 볼 수 있었다.

 

보안과 확장성, 고가용성..

 

프록시와 보안을 같이 묶어서 생각하면, 데이터베이스 앞단에 있다는 것이고,

 

보안이라 함은 데이터베이스에 직접 접근하는 것을 막아주는 역할 때문이 아닐까

 

생각이 드네.

 

프록시역할을 하니깐.. 보안이 딸려온다.. 그런 말 아닐까?

 

 

 

고가용성을 관리한다라 ... 그러면 maxscale이 무너지면?

 

 

그건 그렇고 설치해보자.

 

rpm으로 제공해주고 있고, 의존성이 걸려있는 rpm들이 있으니 yum을 통하든

 

알아서 하고,

 

설치하고 나면, /etc/maxscale.cnf 이 생성이 되어있고, 이 파일에서 설정이 가능하다.

 

내용들을 살펴보자.

 

 # MaxScale documentation:
# https://mariadb.com/kb/en/mariadb-enterprise/mariadb-maxscale-22/

# Global parameters
#
# Complete list of configuration options:
# https://mariadb.com/kb/en/mariadb-enterprise/mariadb-maxscale-22-mariadb-maxscale-configuration-usage-scenarios/

 

안되는 영어 구글 번역기로 돌려보면 되고, 소개랑 구성하는 시나리오에 대한 관련 링크로구나.

 

 

[maxscale]
threads=auto 

 

 

이 매개 변수는 커널에서 오는 이벤트를 처리하는 작업자 스레드의 수를 제어합니다. 기본값은 1 스레드입니다. 더 많은 성능이 필요하면 하나의 스레드로 시작하고 숫자를 늘리는 것이 좋습니다. 작업자 스레드를 프로세서 코어 수 이상으로 늘리더라도 성능이 향상되지는 않으며 성능이 떨어지고 리소스가 불필요하게 소모 될 수 있습니다.

값을 auto로 설정하여이 값의 자동 구성을 사용 가능하게 할 수 있습니다. 이렇게하면 MaxScale은 사용 가능한 프로세서 수를 감지하고 스레드 수를 해당 수와 같게 설정합니다. 이 기능은 MaxScale 실행 전용 시스템에서만 사용해야합니다.

 

auto로 나둬도 상관없을 것 같다. 왜냐하면, maxscale을 쓴다는 것 자체가 데이터베이스

프록시로 사용하겠다는 것이고 다른 역할을 더 쓰지는 않을것 같다.

 

 # Server definitions
#
# Set the address of the server to the network
# address of a MariaDB server.
#

[server1]
type=server
address=127.0.0.1
port=3306
protocol=MariaDBBackend

 

서버 섹션은 서비스로 구성 될 수있는 백엔드 데이터베이스 서버를 정의하는 데 사용됩니다. 서버는 MaxScale 내의 하나 이상의 서비스에 속할 수 있습니다. 서버는 구성 파일의 섹션 이름 인 서버 이름으로 식별됩니다. 서버에는 유형 매개 변수 server와 주소 포트 및 프로토콜 매개 변수가 있습니다.

 

멤버 구성하는 설정인 것 같다.

 

앞서 구성했던 갈레라 클러스터 구성원들을 여기에 넣어봐야겠다.

 

 

 

 

 

 

 

 

 

'컴이야기 > MariaDB' 카테고리의 다른 글

Maxscale 2.3.6  (1) 2019.07.12
Galera Cluster error  (0) 2019.06.14
Galera Cluster Replication.  (0) 2019.03.18
Galera cluster 설치 삽질과정 (완료)  (0) 2018.11.02
xtrabackup 설치해보기 1 - 의존성 리스트  (0) 2018.10.25
posted by 떠돌이늑대 2018. 11. 2. 16:12

설치환경은 Centos 1804

 

설치 DB 는 mariadb 10.3.10 으로 진행했다.

 

총 3대의 가상머신에서 진행을 하는 중이다.

 

node 1, 2, 3 이고

 

IP는 192.168.1.140~142로 할당을 해주었고,

 

Galera cluster 가 사용하는 포트는 4444, 4567,4568 이기 때문에

 

OS 방화벽 허용리스트에 포함해주었다.

 

관련 문서링크

 

 http://galeracluster.com/documentation-webpages/firewallsettings.html

 

 

방화벽 포트 확인

 [root@galera2 ~]# firewall-cmd --list-ports
3306/tcp 4444/tcp 4567/tcp 4568/tcp

 

 

MariaDB 10.3.x 부터는 SST에서 xtrabackup-v2를 지원하지 않기 때문에

mariabackup을 사용하기로 정했다.

 

 

node 1의

my.cnf 에

 

아래와 같이 설정을 추가해주었다.

[galera]
# Mandatory settings
wsrep_on=ON
wsrep_provider=/maria/app/lib/galera/libgalera_smm.so
wsrep_provider_options=gcache.size=128M
wsrep_cluster_address="gcomm://"
wsrep_cluster_name=cfpc_galera
wsrep_node_address=192.168.1.140
wsrep_node_name=galera1
wsrep_sst_receive_address=192.168.1.140:4444
wsrep_sst_method=mariabackup
wsrep_sst_auth=galera:123qwe!@#QWE
binlog_format=ROW
innodb_autoinc_lock_mode=2
default_storage_engine=InnoDB

 

그리고 Mariadb 데몬을 실행시켜주었다.

 

/etc/init.d/maria start --wsrep-new-cluster

 

그리고 DB에 접속해서

상태를 보았다.

MariaDB [(none)]> show status like 'wsrep%';
+------------------------------+----------------------------------------+
| Variable_name                | Value                                  |
+------------------------------+----------------------------------------+
| wsrep_apply_oooe           | 0.000000                               |
| wsrep_apply_oool            | 0.000000                               |
| wsrep_apply_window        | 0.000000                               |
| wsrep_causal_reads          | 0                                         |
| wsrep_cert_deps_distance  | 0.000000                               |
| wsrep_cert_index_size       | 0                                         |
| wsrep_cert_interval          | 0.000000                               |
| wsrep_cluster_conf_id       | 1                                         |
| wsrep_cluster_size           | 1                                         |
| wsrep_cluster_state_uuid   | 07112bf5-dce0-11e8-bd0f-fe56e4bea91e   |
| wsrep_cluster_status        | Primary                                |
| wsrep_cluster_weight       | 1                                        |
| wsrep_commit_oooe        | 0.000000                              |
| wsrep_commit_oool         | 0.000000                              |
| wsrep_commit_window      | 0.000000                             |
| wsrep_connected             | ON                                     |
| wsrep_desync_count         | 0                                        |
| wsrep_evs_delayed           |                                          |
| wsrep_evs_evict_list          |                                        |
| wsrep_evs_repl_latency     | 2.6e-06/5.08e-06/8.2e-06/2.22207e-06/5 |
| wsrep_evs_state              | OPERATIONAL                            |
| wsrep_flow_control_paused    | 0.000000                               |
| wsrep_flow_control_paused_ns | 0                                      |
| wsrep_flow_control_recv      | 0                                      |
| wsrep_flow_control_sent      | 0                                      |
| wsrep_gcomm_uuid             | 9dcdbc95-de36-11e8-92d7-9a829c5cb06a   |
| wsrep_incoming_addresses     | 192.168.1.140:3306                     |
| wsrep_last_committed         | 4                                      |
| wsrep_local_bf_aborts         | 0                                      |
| wsrep_local_cached_downto    | 18446744073709551615                   |
| wsrep_local_cert_failures    | 0                                      |
| wsrep_local_commits          | 0                                      |
| wsrep_local_index            | 0                                      |
| wsrep_local_recv_queue       | 0                                      |
| wsrep_local_recv_queue_avg   | 0.500000                               |
| wsrep_local_recv_queue_max   | 2                                      |
| wsrep_local_recv_queue_min   | 0                                      |
| wsrep_local_replays          | 0                                      |
| wsrep_local_send_queue       | 0                                      |
| wsrep_local_send_queue_avg   | 0.000000                               |
| wsrep_local_send_queue_max   | 1                                      |
| wsrep_local_send_queue_min   | 0                                      |
| wsrep_local_state            | 4                                      |
| wsrep_local_state_comment    | Synced                                 |
| wsrep_local_state_uuid       | 07112bf5-dce0-11e8-bd0f-fe56e4bea91e   |
| wsrep_open_connections       | 0                                      |
| wsrep_open_transactions      | 0                                      |
| wsrep_protocol_version       | 9                                      |
| wsrep_provider_name          | Galera                                 |
| wsrep_provider_vendor        | Codership Oy <info@codership.com>      |
| wsrep_provider_version       | 25.3.24(r3825)                         |
| wsrep_ready                  | ON                                     |
| wsrep_received               | 2                                      |
| wsrep_received_bytes         | 144                                    |
| wsrep_repl_data_bytes        | 0                                      |
| wsrep_repl_keys              | 0                                      |
| wsrep_repl_keys_bytes        | 0                                      |
| wsrep_repl_other_bytes       | 0                                      |
| wsrep_replicated             | 0                                      |
| wsrep_replicated_bytes       | 0                                      |
| wsrep_thread_count           | 2                                      |
+------------------------------+----------------------------------------+
61 rows in set (0.003 sec)

 

node1 에서는 잘 실행되는 것 같다 .

 

node2에서

 

my.cnf에 아래와 같이 추가를 해주었다.

 

[galera]
# Mandatory settings
wsrep_on=ON
wsrep_provider=/maria/app/lib/galera/libgalera_smm.so
wsrep_provider_options=gcache.size=128M
wsrep_cluster_address="gcomm://192.168.1.140:4567"
wsrep_cluster_name=cfpc_galera
wsrep_sst_receive_address=192.168.1.141:4444
wsrep_node_address=192.168.1.141
wsrep_node_name=galera2
wsrep_sst_method=mariabackup
wsrep_sst_auth=galera:123qwe!@#QWE
binlog_format=ROW
innodb_autoinc_lock_mode=2
default_storage_engine=InnoDB

 

DB 구동이 실패했다.

 

 [root@galera2 ~]# systemctl start maria
Job for maria.service failed because the control process exited with error code. See "systemctl status maria.service" and "journalctl -xe" for details.

 

journalctl 을 이용해보았다.

 

-- Unit maria.service has begun starting up.
Nov 02 10:13:05 galera2 maria[2521]: Starting MariaDB.181102 10:13:05 mysqld_safe Logging to '/maria_log/error/maria.err'.
Nov 02 10:13:05 galera2 maria[2521]: 181102 10:13:05 mysqld_safe Starting mysqld daemon with databases from /dbdata
Nov 02 10:13:27 galera2 maria[2521]: .................... ERROR!
Nov 02 10:13:27 galera2 systemd[1]: maria.service: control process exited, code=exited status=1
Nov 02 10:13:27 galera2 systemd[1]: Failed to start LSB: start and stop MariaDB.
-- Subject: Unit maria.service has failed
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
--
-- Unit maria.service has failed.
--
-- The result is failed.

 

maria.err 에 기록이 되었단다. 열어보자.

 

2018-11-02 10:13:08 0 [Note] WSREP: Read nil XID from storage engines, skipping position init
2018-11-02 10:13:08 0 [Note] WSREP: wsrep_load(): loading provider library '/maria/app/lib/galera/libgalera_smm.so'
2018-11-02 10:13:08 0 [Note] WSREP: wsrep_load(): Galera 25.3.24(r3825) by Codership Oy <info@codership.com> loaded successfully.
2018-11-02 10:13:08 0 [Note] WSREP: CRC-32C: using hardware acceleration.
2018-11-02 10:13:08 0 [Note] WSREP: Found saved state: 00000000-0000-0000-0000-000000000000:-1, safe_to_bootstrap: 1
2018-11-02 10:13:08 0 [Note] WSREP: Passing config to GCS: base_dir = /dbdata/; base_host = 192.168.1.141; base_port = 4567; cert.log_conflicts = no; debug = no; evs.auto_evict = 0; evs.delay_margin = PT1S; evs.delayed_keep_period = PT30S; evs.inactive_check_period = PT0.5S; evs.inactive_timeout = PT15S; evs.join_retrans_period = PT1S; evs.max_install_timeouts = 3; evs.send_window = 4; evs.stats_report_period = PT1M; evs.suspect_timeout = PT5S; evs.user_send_window = 2; evs.view_forget_timeout = PT24H; gcache.dir = /dbdata/; gcache.keep_pages_size = 0; gcache.mem_size = 0; gcache.name = /dbdata//galera.cache; gcache.page_size = 128M; gcache.recover = no; gcache.size = 128M; gcomm.thread_prio = ; gcs.fc_debug = 0; gcs.fc_factor = 1.0; gcs.fc_limit = 16; gcs.fc_master_slave = no; gcs.max_packet_size = 64500; gcs.max_throttle = 0.25; gcs.recv_q_hard_limit = 9223372036854775807; gcs.recv_q_soft_limit = 0.25; gcs.sync_donor = no; gmcast.segment = 0; gmcast.version = 0; pc.announce_timeout = PT3S; pc.checksum = false; pc.ignore_quorum = false
2018-11-02 10:13:08 0 [Note] WSREP: GCache history reset: 07112bf5-dce0-11e8-bd0f-fe56e4bea91e:0 -> 00000000-0000-0000-0000-000000000000:-1
2018-11-02 10:13:08 0 [Note] WSREP: Assign initial position for certification: -1, protocol version: -1
2018-11-02 10:13:08 0 [Note] WSREP: wsrep_sst_grab()
2018-11-02 10:13:08 0 [Note] WSREP: Start replication
2018-11-02 10:13:08 0 [Note] WSREP: Setting initial position to 00000000-0000-0000-0000-000000000000:-1
2018-11-02 10:13:08 0 [Note] WSREP: protonet asio version 0
2018-11-02 10:13:08 0 [Note] WSREP: Using CRC-32C for message checksums.
2018-11-02 10:13:08 0 [Note] WSREP: backend: asio
2018-11-02 10:13:08 0 [Note] WSREP: gcomm thread scheduling priority set to other:0
2018-11-02 10:13:08 0 [Warning] WSREP: access file(/dbdata//gvwstate.dat) failed(No such file or directory)
2018-11-02 10:13:08 0 [Note] WSREP: restore pc from disk failed
2018-11-02 10:13:08 0 [Note] WSREP: GMCast version 0
2018-11-02 10:13:08 0 [Note] WSREP: (75a27987, 'tcp://0.0.0.0:4567') listening at tcp://0.0.0.0:4567
2018-11-02 10:13:08 0 [Note] WSREP: (75a27987, 'tcp://0.0.0.0:4567') multicast: , ttl: 1
2018-11-02 10:13:08 0 [Note] WSREP: EVS version 0
2018-11-02 10:13:08 0 [Note] WSREP: gcomm: connecting to group 'cfpc_galera', peer '192.168.1.140:4567'
2018-11-02 10:13:08 0 [Note] WSREP: (75a27987, 'tcp://0.0.0.0:4567') connection established to 9dcdbc95 tcp://192.168.1.140:4567
2018-11-02 10:13:08 0 [Note] WSREP: (75a27987, 'tcp://0.0.0.0:4567') turning message relay requesting on, nonlive peers:
2018-11-02 10:13:09 0 [Note] WSREP: declaring 9dcdbc95 at tcp://192.168.1.140:4567 stable
2018-11-02 10:13:09 0 [Note] WSREP: Node 9dcdbc95 state prim

2018-11-02 10:13:09 0 [Note] WSREP: view(view_id(PRIM,75a27987,4) memb {
        75a27987,0
        9dcdbc95,0
} joined {
} left {
} partitioned {
})
2018-11-02 10:13:09 0 [Note] WSREP: save pc into disk
2018-11-02 10:13:09 0 [Note] WSREP: gcomm: connected
2018-11-02 10:13:09 0 [Note] WSREP: Changing maximum packet size to 64500, resulting msg size: 32636
2018-11-02 10:13:09 0 [Note] WSREP: Shifting CLOSED -> OPEN (TO: 0)
2018-11-02 10:13:09 0 [Note] WSREP: Opened channel 'cfpc_galera'
2018-11-02 10:13:09 0 [Note] WSREP: Waiting for SST to complete.
2018-11-02 10:13:09 0 [Note] WSREP: New COMPONENT: primary = yes, bootstrap = no, my_idx = 0, memb_num = 2
2018-11-02 10:13:09 0 [Note] WSREP: STATE_EXCHANGE: sent state UUID: 763ba9e2-de3c-11e8-9ed7-8a60fe20a71d
2018-11-02 10:13:09 0 [Note] WSREP: STATE EXCHANGE: sent state msg: 763ba9e2-de3c-11e8-9ed7-8a60fe20a71d
2018-11-02 10:13:09 0 [Note] WSREP: STATE EXCHANGE: got state msg: 763ba9e2-de3c-11e8-9ed7-8a60fe20a71d from 0 (galera2)
2018-11-02 10:13:09 0 [Note] WSREP: STATE EXCHANGE: got state msg: 763ba9e2-de3c-11e8-9ed7-8a60fe20a71d from 1 (galera1)
2018-11-02 10:13:09 0 [Note] WSREP: Quorum results:
        version    = 4,
        component  = PRIMARY,
        conf_id    = 3,
        members    = 1/2 (joined/total),
        act_id     = 4,
        last_appl. = -1,
        protocols  = 0/9/3 (gcs/repl/appl),
        group UUID = 07112bf5-dce0-11e8-bd0f-fe56e4bea91e
2018-11-02 10:13:09 0 [Note] WSREP: Flow-control interval: [23, 23]
2018-11-02 10:13:09 0 [Note] WSREP: Trying to continue unpaused monitor
2018-11-02 10:13:09 0 [Note] WSREP: Shifting OPEN -> PRIMARY (TO: 4)
2018-11-02 10:13:09 2 [Note] WSREP: State transfer required:
        Group state: 07112bf5-dce0-11e8-bd0f-fe56e4bea91e:4
        Local state: 00000000-0000-0000-0000-000000000000:-1
2018-11-02 10:13:09 2 [Note] WSREP: New cluster view: global state: 07112bf5-dce0-11e8-bd0f-fe56e4bea91e:4, view# 4: Primary, number of nodes: 2, my index: 0, protocol version 3
2018-11-02 10:13:09 2 [Warning] WSREP: Gap in state sequence. Need state transfer.
2018-11-02 10:13:09 0 [Note] WSREP: Running: 'wsrep_sst_mariabackup --role 'joiner' --address '192.168.1.141:4444' --datadir '/dbdata/'   --parent '2998' --binlog '/maria_log/binary/maria-bin'  '''
WSREP_SST: [INFO] Streaming with xbstream (20181102 10:13:10.481)
WSREP_SST: [INFO] Using socat as streamer (20181102 10:13:10.486)
WSREP_SST: [INFO] Stale sst_in_progress file: /dbdata//sst_in_progress (20181102 10:13:10.494)
WSREP_SST: [INFO] Evaluating timeout -k 110 100 socat -u TCP-LISTEN:4444,reuseaddr stdio | mbstream -x; RC=( ${PIPESTATUS[@]} ) (20181102 10:13:10.564)
2018-11-02 10:13:10 2 [Note] WSREP: Prepared SST request: mariabackup|192.168.1.141:4444/xtrabackup_sst//1
2018-11-02 10:13:10 2 [Note] WSREP: wsrep_notify_cmd is not defined, skipping notification.
2018-11-02 10:13:10 2 [Note] WSREP: REPL Protocols: 9 (4, 2)
2018-11-02 10:13:10 2 [Note] WSREP: Assign initial position for certification: 4, protocol version: 4
2018-11-02 10:13:10 0 [Note] WSREP: Service thread queue flushed.

2018-11-02 10:13:10 2 [Warning] WSREP: Failed to prepare for incremental state transfer: Local state UUID (00000000-0000-0000-0000-000000000000) does not match group state UUID (07112bf5-dce0-11e8-bd0f-fe56e4bea91e): 1 (Operation not permitted)
         at galera/src/replicator_str.cpp:prepare_for_IST():482. IST will be unavailable.
2018-11-02 10:13:10 0 [Note] WSREP: Member 0.0 (galera2) requested state transfer from '*any*'. Selected 1.0 (galera1)(SYNCED) as donor.
2018-11-02 10:13:10 0 [Note] WSREP: Shifting PRIMARY -> JOINER (TO: 4)
2018-11-02 10:13:10 2 [Note] WSREP: Requesting state transfer: success, donor: 1
2018-11-02 10:13:10 2 [Note] WSREP: GCache history reset: 00000000-0000-0000-0000-000000000000:0 -> 07112bf5-dce0-11e8-bd0f-fe56e4bea91e:4
WSREP_SST: [INFO] WARNING: Stale temporary SST directory: /dbdata//.sst from previous state transfer. Removing (20181102 10:13:11.434)
WSREP_SST: [INFO] Proceeding with SST (20181102 10:13:11.441)
WSREP_SST: [INFO] Evaluating socat -u TCP-LISTEN:4444,reuseaddr stdio | mbstream -x; RC=( ${PIPESTATUS[@]} ) (20181102 10:13:11.444)
WSREP_SST: [INFO] Cleaning the existing datadir and innodb-data/log directories (20181102 10:13:11.452)
removed ‘/dbdata/aria_log_control’
removed ‘/dbdata/aria_log.00000001’
removed ‘/dbdata/ibdata1’
removed ‘/dbdata/ibdata2’
removed ‘/dbdata/ibdata3’
removed ‘/dbdata/ibdata4’
removed ‘/dbdata/ibdata5’
removed ‘/dbdata/ib_logfile1’
removed ‘/dbdata/ib_logfile2’
removed ‘/dbdata/ib_logfile3’
removed ‘/dbdata/ib_logfile4’
WSREP_SST: [INFO] Cleaning the binlog directory /maria_log/binary as well (20181102 10:13:11.473)
removed ‘/maria_log/binary/maria-bin.000001’
WSREP_SST: [INFO] Waiting for SST streaming to complete! (20181102 10:13:11.480)
2018-11-02 10:13:11 0 [Note] WSREP: (75a27987, 'tcp://0.0.0.0:4567') turning message relay requesting off
2018-11-02 10:13:21 0 [Warning] WSREP: 1.0 (galera1): State transfer to 0.0 (galera2) failed: -22 (Invalid argument)
2018-11-02 10:13:21 0 [ERROR] WSREP: gcs/src/gcs_group.cpp:gcs_group_handle_join_msg():737: Will never receive state. Need to abort.
2018-11-02 10:13:21 0 [Note] WSREP: gcomm: terminating thread
2018-11-02 10:13:21 0 [Note] WSREP: gcomm: joining thread
2018-11-02 10:13:21 0 [Note] WSREP: gcomm: closing backend
WSREP_SST: [ERROR] xtrabackup_checkpoints missing, failed innobackupex/SST on donor (20181102 10:13:21.557)
WSREP_SST: [ERROR] Cleanup after exit with status:2 (20181102 10:13:21.609)
2018-11-02 10:13:21 0 [ERROR] WSREP: Process completed with error: wsrep_sst_mariabackup --role 'joiner' --address '192.168.1.141:4444' --datadir '/dbdata/'   --parent '2998' --binlog '/maria_log/binary/maria-bin'  '': 2 (No such file or directory)
2018-11-02 10:13:21 0 [ERROR] WSREP: Failed to read uuid:seqno and wsrep_gtid_domain_id from joiner script.
2018-11-02 10:13:21 0 [ERROR] WSREP: SST failed: 2 (No such file or directory)
2018-11-02 10:13:21 0 [ERROR] Aborting

 

이러한 것들이 기록이 되었다.

 

 

그리고 node1에서 이러한 기록이 보인다.

 

innobackup.backup.log 파일을 열어본다.

 

181102 14:51:08 Connecting to MySQL server host: localhost, user: galera, password: set, port: not set, socket: /tmp/maria.sock
Failed to connect to MySQL server: Access denied for user 'galera'@'localhost' (using password: YES).

 

계정 문제?

 

이미 계정을 생성해주었고, 모든권한을 주었는데... 엑세스 거부라니...뭘까...

 

node1에서

 

mysql 접속한 다음.

 

drop user galera@localhost;

drop user  galera@127.0.0.1;

drop user galera@'%';

 

를 한다음

 

다시 생성해보았다.

 

그리고 node2에서 

systemctl start maria

된다....

 

 

node3에서 같은 문제가 발생했지만,

 

node1을 systemctl stop maria를 하여

 

중지한 다음 my.cnf 에

wsrep_cluster_address="gcomm://" 에 모든 노드의 IP를 추가해준다음

 

node1에서

 

systemctl start maria

 

서비스가 시작되고 갈레라클러스터가 제대로 작동된것을 확인후

 

node2에서 서비스 중지 후 my.cnf의

wsrep_cluster_address="gcomm://" 부분을 node1과 node3으로 변경해서

 

서비스를 시작 정상 작동 후 갈레라클러스터도 확인 정상

 

node3을 시작했더니.... 되더라..

 

MariaDB [(none)]> show status like 'wsrep_%';
+------------------------------+----------------------------------------------------------+
| Variable_name                | Value                                                    |
+------------------------------+----------------------------------------------------------+
| wsrep_apply_oooe             | 0.000000                                                 |
| wsrep_apply_oool             | 0.000000                                                 |
| wsrep_apply_window           | 0.000000                                                 |
| wsrep_causal_reads           | 0                                                        |
| wsrep_cert_deps_distance     | 0.000000                                                 |
| wsrep_cert_index_size        | 0                                                        |
| wsrep_cert_interval          | 0.000000                                                 |
| wsrep_cluster_conf_id        | 27                                                       |
| wsrep_cluster_size           | 3                                                        |
| wsrep_cluster_state_uuid     | ed7ec725-de61-11e8-9a68-26599eda2ee7                     |
| wsrep_cluster_status         | Primary                                                  |
| wsrep_cluster_weight         | 3                                                        |
| wsrep_commit_oooe            | 0.000000                                                 |
| wsrep_commit_oool            | 0.000000                                                 |
| wsrep_commit_window          | 0.000000                                                 |
| wsrep_connected              | ON                                                       |
| wsrep_desync_count           | 0                                                        |
| wsrep_evs_delayed            |                                                          |
| wsrep_evs_evict_list         |                                                          |
| wsrep_evs_repl_latency       | 0/0/0/0/0                                                |
| wsrep_evs_state              | OPERATIONAL                                              |
| wsrep_flow_control_paused    | 0.000000                                                 |
| wsrep_flow_control_paused_ns | 0                                                        |
| wsrep_flow_control_recv      | 0                                                        |
| wsrep_flow_control_sent      | 0                                                        |
| wsrep_gcomm_uuid             | ae0b4de8-de7d-11e8-bb50-3773face4542                     |
| wsrep_incoming_addresses     | 192.168.1.140:3306,192.168.1.141:3306,192.168.1.142:3306 |
| wsrep_last_committed         | 29                                                       |
| wsrep_local_bf_aborts        | 0                                                        |
| wsrep_local_cached_downto    | 18446744073709551615                                     |
| wsrep_local_cert_failures    | 0                                                        |
| wsrep_local_commits          | 0                                                        |
| wsrep_local_index            | 2                                                        |
| wsrep_local_recv_queue       | 0                                                        |
| wsrep_local_recv_queue_avg   | 0.000000                                                 |
| wsrep_local_recv_queue_max   | 1                                                        |
| wsrep_local_recv_queue_min   | 0                                                        |
| wsrep_local_replays          | 0                                                        |
| wsrep_local_send_queue       | 0                                                        |
| wsrep_local_send_queue_avg   | 0.000000                                                 |
| wsrep_local_send_queue_max   | 1                                                        |
| wsrep_local_send_queue_min   | 0                                                        |
| wsrep_local_state            | 4                                                        |
| wsrep_local_state_comment    | Synced                                                   |
| wsrep_local_state_uuid       | ed7ec725-de61-11e8-9a68-26599eda2ee7                     |
| wsrep_open_connections       | 0                                                        |
| wsrep_open_transactions      | 0                                                        |
| wsrep_protocol_version       | 9                                                        |
| wsrep_provider_name          | Galera                                                   |
| wsrep_provider_vendor        | Codership Oy <info@codership.com>                        |
| wsrep_provider_version       | 25.3.24(r3825)                                           |
| wsrep_ready                  | ON                                                       |
| wsrep_received               | 3                                                        |
| wsrep_received_bytes         | 296                                                      |
| wsrep_repl_data_bytes        | 0                                                        |
| wsrep_repl_keys              | 0                                                        |
| wsrep_repl_keys_bytes        | 0                                                        |
| wsrep_repl_other_bytes       | 0                                                        |
| wsrep_replicated             | 0                                                        |
| wsrep_replicated_bytes       | 0                                                        |
| wsrep_thread_count           | 2                                                        |
+------------------------------+----------------------------------------------------------+
61 rows in set (0.003 sec) 

 

 

 

험난하다 험난해...

 

가상머신을 다시 만들어서 해봐야겠다.

 

 

된다!

 

'컴이야기 > MariaDB' 카테고리의 다른 글

Maxscale 2.3.6  (1) 2019.07.12
Galera Cluster error  (0) 2019.06.14
Galera Cluster Replication.  (0) 2019.03.18
maxscale 을 사용해보자. [진행중]  (0) 2018.11.07
xtrabackup 설치해보기 1 - 의존성 리스트  (0) 2018.10.25
posted by 떠돌이늑대 2018. 10. 25. 09:35

Galera cluster를 이용해보기 위해  replication 도구로 xtrabackup을

 

사용해보기로 했다.

 

OS 는 Centos 7.5 1804 버전이고 minimal 로 설치한다음

 

mariadb는 10.3.9로 설치를 했다.

 

xtrabackup 은 mariadb에 기본 포함되어 있지 않기 때문에,

 

별도로 rpm 패키지로 설치를 진행했다.

 

의존성 문제가 나왔고, 하나하나 구해보았으나,

 

의존성의 의존성이 걸리는 심각한 정신적인 타격이 와서

 

yum을 이용하기로 하고, 의존성이 걸린 패키지들을

 

전부 다운로드 하는 방식으로 진행했다.

 

우선, xtrabackup 을 설치하기 위해서는 아래와 같은

 

rpm이 필요하다.

 

 

 

 

패키지들을 지정된 디렉토리로 다운로드 받고,

 

전부 설치를 진행해보니, 의존성 문제없이 설치가 되었다.

 

 

'컴이야기 > MariaDB' 카테고리의 다른 글

Maxscale 2.3.6  (1) 2019.07.12
Galera Cluster error  (0) 2019.06.14
Galera Cluster Replication.  (0) 2019.03.18
maxscale 을 사용해보자. [진행중]  (0) 2018.11.07
Galera cluster 설치 삽질과정 (완료)  (0) 2018.11.02
posted by 떠돌이늑대 2018. 10. 22. 10:35

 

나의 선택기준은 아래와 같았다.

더블월에 자립형 구조, 4계절용 inner,

가벼운 무게,  내 픽업트럭에서도 사용가능.

 

 

이러한 조건들을 만족시켜주는 것이

알리에서 113$ 짜리 텐트였다.

 

전체 적인 모습은 위와 같고,

 

 

 

텐트 사이즈 L x W x H  210 x 70 x 110 이다.

 

내 차의 적재함 사이즈는

 Tray Dimensions (L x W x H) 1520 x 1580 x 440

이다.

 

적재함 문을 열면 길이는 약 215cm 정도가 나오므로

길이, 폭에서도 합격이었다.

 

 

 

3계절용 inner

 

4계절용 inner

 

 

상품설명중의 텐트 설치모습

 

 

15D Fly를 선택하면, 팩,풋프린트 포함 무게도 1.6Kg 정도로 가볍다 

 

 

 

구매 후 실제 사용

 

 

3계절용 inner를 타오바오에서 별도 구매

 

 

여러가지면에서 나에게 딱 맞는 텐트이다.

 

아쉬운 점은 딱 하나!!!

양방향이 아닌 단방향 개방형태이다.

'여행이야기 > 백패킹' 카테고리의 다른 글

[장비] 1인용 텐트 구매  (0) 2019.11.07
[장비] 나의 스토브 이야기  (2) 2018.10.17
posted by 떠돌이늑대 2018. 10. 19. 17:07

 

집나갔다가 다음날

여러사람들의 도움으로 찾게 되었다.

피곤했었는지 집에 오자마자

떡실신 되어 잠들어 버렸네.

 

 

 

 

감기도 걸려서 한동안 넥카라도 해서 고생도 좀 하고,

 

 

 

다 나은 후 미러리스카메라로 찍었더니,

귀엽게 나오네.

 

 

 

밖에 다니는 것을 너무나 좋아하여,

몸줄을 하고서 산책도 한다.

개처럼 따라다니진 않고,

자기 기분대로 내가 끌려간다.

 

 

 

 

그러다 알게 된 것은

나무 오르는 것을 좋아하더라.

 

 

 

 

너 털색깔이 변해가고 있다?

 

 

 

점점 털색깔이 짙어지고 있다.

 

 

 

 

이제는 잘때가 제일 이쁘다고 해야 되나?

 

 

 

한여름에도 덥지만 밖을 좋아해서,

공원으로 데리고 나가서

뛰어놀게 한다.

 

 

 

 

돌아다니게 풀어주면

무심히 내 곁을 지나가고,

다시오고 한다.

 

 

 

 

 

벤치에 앉아 쉬기도 하고

이래저래 호기심이 많은 고양이

 

 

 

 

 

처음 데려왔을 때보다 너무나 다른 털색깔 신기하다.

 

 

 

집이 편해졌는지 배를 드러내놓고 자기도 한다.

 

 

 

 

내가 회사가고 나면,

외로워 하는 것 같아

다른 유기묘를 데리고 왔다.

이 녀석은 보호소에서

구내염에 걸려 고생이 많았다.

 

 

 

 

그래도 사이좋게 지내는 모습이 좋았다.

 

 

 

같이 놀기도 하고,

 

 

 

 

구내염이 낫고, 컨디션이 좋아지더니

발정기가 와 나도 힘들고

이 고양이도 힘들고 해서

중성화수술 해주고,...

해주는 나도 맘이 아프지.

 

 

 

산책나오고 들어갈때 쯤,

배째라며 땡깡까지 부리고,

살도 많이 쪘네.

 

 

 

 

살이 너무 쪄서 나무에 오르는 것이

힘들어 보여도,

올라갈 건 올라가더라.

 

 

 

 

이젠 집 안 아무데서나

 배 드러내놓고 눕거나 잔다.

 

 

 

 

산책나갈 때마다 풀 뜯어먹는 것이

위험할 것 같아, 귀리도 심어보고,

 

 

 

데리고 온지 세달쯤 지났을까?

처음에 오지 않던 고양이가

이젠 무릎냥이가 되었다.

 

 

 

어디 구멍만 있다하면 들어가는 것을 좋아해서,

비닐 봉지속에도 들어가기도 하고,

 

 

 

귀리도 어느정도 자라고 있구나.

 

 

 

 

어우... 돼냥이....

 

 

 

귀리 어쩔......

 

 

 

택배가 오면 

항상 나보다 먼저 사용해보는 냥이들.

 

 

 

 

그래도

 

 

 

 

너희들이 좋다.

 

'반려묘 이야기' 카테고리의 다른 글

20190629 앙고  (0) 2019.07.02
어느덧 1년이 지났구나  (0) 2019.06.14
유기묘 입양!  (0) 2018.06.12
posted by 떠돌이늑대 2018. 10. 18. 14:46

최소한 boot.wim에 intel usb 3.0 드라이버가 포함 되어 있어야 한다.

 

스마트어레이 P 시리즈는 Microsemi 홈페이지에 드라이버가 있다.

 

칩셋드라이버야 대충 무시하고 깔면 되고,,,

 

intel x722 칩셋을 사용한 369i 라는 내장 nic 가.. 드라이버 설치가 골치 아프다.

 

inf 파일로는 제대로 설치할 수가 없지만, install.wim에는 추가가 되긴 한다.

 

이 추가된 install.wim으로는 설치해보진 못했다. 나중에 기회가 되면 설치해봐야겠다.

 

ilo5 에 대한 드라이버도 역시 없다.

'컴이야기 > HP 서버' 카테고리의 다른 글

B140i 리눅스  (0) 2017.09.28
FLR FLB 풀이  (0) 2017.08.10
캐쉬 배터리의 역할  (0) 2017.06.19
FC 케이블과 지빅 종류에 따른 거리 변화  (0) 2016.10.17
브라우저 접속가능 HP Management  (1) 2016.04.14