sun操作系統(tǒng)如何操作
Sun的操作系統(tǒng)最初叫做SunOS,由于Sun Microsystem的創(chuàng)始人之一,Bill Joy來自U.C.Berkeley,因此SunOS主要是基于BSDUnix版本。那么sun操作系統(tǒng)如何操作?學(xué)習(xí)啦小編為大家SUN系統(tǒng)維護(hù)命令大全,供大家參考。
SUN系統(tǒng)維護(hù)命令大全
1、查看機(jī)型:SUn的小型機(jī)的機(jī)型都在面板上寫著有,如NETRA T 1125, 更有比如utra 5,utra 10等等。
2、查看cpu個(gè)數(shù) (錯(cuò)誤,不正確,因?yàn)閟un中的top命令不能完全看到所有的cpu情況,和HP用法也不相同)
#top
CPU states: 99.3% idle, 0.1% user, 0.6% kernel, 0.0% iowait, 0.0% swap
表示只有一個(gè)cpu
正確方法:
用dmesg |grep cpu
便能看到正確的 cpu個(gè)數(shù)了。
3、查看內(nèi)存
#dmesg |grep mem
mem = 2097152K (0x80000000)
avail mem = 2087739392
4、查看磁盤的個(gè)數(shù)
#vxdisk list
DEVICE TYPE DISK GROUP STATUS
c0t0d0s2 sliced - - error
c0t0d0s7 simple c0t0d0s7 rootdg online
c1t0d0s2 sliced - - online
c1t1d0s2 sliced smpdg2 smpdg online
c1t2d0s2 sliced smpdbdg1 smpdbdg online
c2t0d0s2 sliced - - online
c2t1d0s2 sliced smpdg1 smpdg online
c2t2d0s2 sliced smpdbdg2 smpdbdg online
5、怎么查看文件系統(tǒng)
#df -k
Filesystem kbytes used avail capacity Mounted on
/dev/dsk/c0t0d0s0 4032142 1050675 2941146 27% /
/proc 0 0 0 0% /proc
fd 0 0 0 0% /dev/fd
/dev/dsk/c0t0d0s6 7304977 29 7231899 1% /home
/dev/dsk/c0t0d0s5 4032142 402929 3588892 11% /opt
swap 3418392 32 3418360 1% /tmp
/vol/dev/dsk/c0t6d0/informix
201730 201730 0 100% /cdrom/informix
/dev/vx/dsk/smpdg/smpdg-stat
1055 9 941 1% /smpwork
/dev/vx/dsk/smpdg/lv_smp
17336570 128079 17035126 1% /sms
6、查看卷組、邏輯卷的位置
#cd /dev/vx/dsk/
比如smpdg等等都在該目錄下了,然后再進(jìn)入某個(gè)卷組目錄就能看到該卷組下面的邏輯卷了。
7、怎么創(chuàng)建卷組、邏輯卷、文件系統(tǒng)
A、創(chuàng)建smpdg邏輯卷組(假設(shè)目前是將c1t1d0 和c1t2d0兩塊物理磁盤來創(chuàng)建smcpdg邏輯卷組)
vxdisksetup -i c1t1d0 (格式化物理磁盤)
vxdisksetup -i c2t1d0
vxdg init smpdg smpdg1=c2t1d0 (將物理磁盤加入到邏輯卷組smpdg)
vxdg -g smpdg adddisk smpdg2=c1t1d0
然后再來創(chuàng)建邏輯卷、文件系統(tǒng)
vxassist -g smpdg -U fsgen make lv_smp 17200m layout=nolog smpdg1
vxassist -g smpdg mirror lv_smp layout=nostripe smpdg2
newfs -C -f /dev/vx/rdsk/smpdg/lv_smp
假設(shè)目前的一臺(tái)機(jī)器上掛接到/sms
mkdir /sms
chown smp:smp /sms
vxvol -g smpdg startall
mount /dev/vx/dsk/smpdg/lv_smp /sms
umount /sms
vxvol -g smpdg stopall
vxdg deport smpdg
然后再在第二臺(tái)機(jī)器上掛接到/sms
mkdir /sms
chown smp:smp /sms
vxdg import smpdg
vxvol -g smpdg startall
newfs -C -f /dev/vx/rdsk/smpdg/lv_smp
mount /dev/vx/dsk/smpdg/lv_smp /sms
umount /sms
備注:以上是創(chuàng)建一個(gè)共享的文件系統(tǒng)
往往由于smpdg要分配給某一個(gè)應(yīng)用來使用,所以需要再來創(chuàng)建一個(gè)個(gè)邏輯機(jī)運(yùn)行時(shí)掛接的文件系統(tǒng):
vxassist -g smpdg -U fsgen make smpdg-stat 2m layout=nolog smpdg1
vxassist -g smpdg mirror smpdg-stat layout=nostripe smpdg2
newfs /dev/vx/rdsk/smpdg/smpdg-stat
B、創(chuàng)建smpdbdg邏輯卷組
創(chuàng)建卷組:
vxdisksetup -i c1t2d0
vxdisksetup -i c2t2d0
vxdg init smpdbdg smpdbdg1=c1t2d0
vxdg -g smpdbdg adddisk smpdbdg2=c2t2d0
vxassist -g smpdbdg -U fsgen make smpdbdg-stat 2m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror smpdbdg-stat layout=nostripe smpdbdg2
newfs /dev/vx/rdsk/smpdbdg/smpdbdg-stat
創(chuàng)建邏輯卷:
vxassist -g smpdbdg -U gen make lv_rootdbs 128m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_rootdbs layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_logdbs 300m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_logdbs layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_phydbs 100m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_phydbs layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_tempdbs 1000m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_tempdbs layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_svcchunk1 2000m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_svcchunk1 layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_svcchunk2 2000m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_svcchunk2 layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_svcchunk3 2000m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_svcchunk3 layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_recchunk1 2000m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_recchunk1 layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_recchunk2 2000m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_recchunk2 layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_recchunk3 2000m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_recchunk3 layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_recchunk4 2000m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_recchunk4 layout=nostripe smpdbdg2
vxassist -g smpdbdg -U gen make lv_recchunk5 1700m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_recchunk5 layout=nostripe smpdbdg2
C、附邏輯卷的屬性
vxedit -g smpdg -v set user=smp group=smp lv_smp
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_rootdbs
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_logdbs
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_phydbs
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_tempdbs
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_svcchunk1
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_svcchunk2
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_svcchunk3
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_recchunk1
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_recchunk2
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_recchunk3
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_recchunk4
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_recchunk5
備注:在SUN的機(jī)器中在給邏輯卷付屬性的時(shí)候,等于用chown、chmod來作。
8、怎么刪除卷組
其實(shí)也就是去激活和倒出的過程,然后再來對(duì)物理磁盤重新格式化就完了。
vxvol -g smpdbdg stopall
vxdg deport smpdbdg
vxdisksetup -i c1t0d0
vxdisksetup -i c2t1d0
......
這樣做了之后就不會(huì)再有/dev/vx/smpdbdg目錄了。
9、怎么建立共享卷組
在第一臺(tái)機(jī)器上先建立卷組,假設(shè)已建設(shè)好卷組smpdg,目前要在第二臺(tái)機(jī)器上建立共享卷組smpdg,則先在的一臺(tái)機(jī)器上將smpdg去激活、并且倒出smpdg:
smcp01>vxvol -g smpdg stopall
smcp01>vxdg deport smpdg
再來在第二臺(tái)機(jī)器上激活、導(dǎo)入smpdg:
smcp02>vxdg import smpdg
smcp02>vxvol -g smpdg startall
轉(zhuǎn)換后對(duì)用以下三個(gè)命令進(jìn)行查看是否轉(zhuǎn)換成功:
vxdg list //用于查看邏輯卷組的信息
vxdisk list //用于查物理磁盤的信息
vxprint -vt //用于查看所有卷的信息
10、怎么查看磁盤的大小
方法一:
#format
然后選擇盤的代號(hào),回車進(jìn)入下一級(jí)菜單,再選inquiry,就得到該盤的大小信息,比如:
Vendor: FUJITSU
Product: MAN3184M SUN18G
Revision: 1502
注意:format是個(gè)功能強(qiáng)大的磁盤診斷工具。
方法二:
#cd /opt/SUNWexplo/bin/
運(yùn)行explorer得到磁盤的信息包,是個(gè)目錄,進(jìn)入該目錄,就發(fā)現(xiàn)有一個(gè)disks目錄,進(jìn)入該目錄發(fā)現(xiàn)有一個(gè)diskinfo文件,用如下命令看各個(gè)磁盤
的大?。?/p>
0: rmt/0ln HP C1537A L706 62########
1: c0t0d0 FUJITSU MAJ3182M SUN18G 0804 0041P90050##
2: c1t0d0 SEAGATE ST318203LSUN18G 034A 0025H54125##
3: c1t1d0 SEAGATE ST318203LSUN18G 034A 0026H70087##
4: c1t2d0 FUJITSU MAJ3182M SUN18G 0804 0046P66422##
5: c2t0d0 SEAGATE ST318203LSUN18G 034A 0026G30220##
6: c2t1d0 SEAGATE ST318203LSUN18G 034A 0026H59041##
7: c2t2d0 FUJITSU MAJ3182M SUN18G 0804 0051P91980##
8: ses0 SYMBIOS D1000 2 O8# SAF-
9: ses1 SYMBIOS D1000 2 O8# SAF-
11、查看informix的版本
#su - informix
informix>onstat -
這樣能看到informix的版本。
12、收集信息的工具
#cd /opt/SUNWexplo/bin/explorer
#explorer
運(yùn)行之后得到一個(gè)目錄和該目錄的壓縮包*.gz。我們能進(jìn)入該結(jié)果目錄,在該目錄中有各種需要查看的信息。
13、雙機(jī)的腳本文件
#cd /opt/SUNWcluster/ha/smpwork
在ha下面有雙機(jī)應(yīng)用的目錄,如smpwork,在該目錄下面又有各種雙機(jī)應(yīng)用的設(shè)置文件。
14、雙機(jī)的維護(hù)命令集
首先在節(jié)點(diǎn)smcp01機(jī)上啟動(dòng)cluster:
# scadmin startcluster smcp01 smcp
然后在節(jié)點(diǎn)smcp02機(jī)上將本節(jié)點(diǎn)啟動(dòng):
# scadmin startnode
啟動(dòng)后觀察cluster狀態(tài)的命令是 :
# hastat //該命令能顯示cluster、節(jié)點(diǎn)、
邏輯機(jī)和Data service的狀態(tài),及一些歷史運(yùn)行信息。
# get_node_status //該命令能顯示所在節(jié)點(diǎn)的節(jié)點(diǎn)號(hào)、公用網(wǎng)卡的狀態(tài)等信息。
從圖像化的本地終端(假設(shè)其IP地址為ip)中以smcp用戶的身份登
錄到SMCP主機(jī)(注意應(yīng)使用SMCP的邏輯機(jī)地址)
% telnet smcpwork
在SMCP主機(jī)上設(shè)置環(huán)境變量DISPLAY
% setenv DISPLAY ip:0.0
在本地終端中執(zhí)行
% xhost +
手工啟動(dòng)OAM
% oam&
以O(shè)AM操作員登錄
分別在兩個(gè)節(jié)點(diǎn)smcp01機(jī)和smcp02機(jī)上執(zhí)行:
# scadmin stopnode
該命令使當(dāng)前所在節(jié)點(diǎn)停止在cluster中運(yùn)行,而且在兩個(gè)節(jié)點(diǎn)上要分別執(zhí)行該命令。
例如將smcpwork轉(zhuǎn)換到節(jié)點(diǎn)smcp02上運(yùn)行能輸入:
#scadmin switch smcp smcp02 smcpwork
例如將querywork轉(zhuǎn)換到節(jié)點(diǎn)smcp02上運(yùn)行能輸入:
#haswitch smcp02 querywork
hareg命令通過以下開關(guān)參數(shù)將Data service注冊(cè)和激活
-r 將指定的Data service注冊(cè)到cluster中
-u 將指定的Data service從cluster中取消注冊(cè)
-y 激活指定的Data service,使其狀態(tài)為On
-Y 激活cluster中所有的Data service,使其狀態(tài)為On
-n 去激活指定的Data service,使其狀態(tài)為Off
-N 去激活cluster中所有的Data service,使其狀態(tài)為Off
hareg不帶所有參數(shù)時(shí)能查看所有Data service的當(dāng)前狀態(tài)
Data service只有在注冊(cè)到cluster中之后,才會(huì)具有On或Off的狀態(tài),處于On狀態(tài)的Data service能正常的對(duì)外提供服務(wù),而處于Off狀態(tài)的Data service是停止對(duì)外服務(wù)的。如果Data service被取消了注冊(cè),必須重新注冊(cè)才能在cluster中運(yùn)行起來。當(dāng)然,使用hareg命令的前提是cluster已啟動(dòng)并正常運(yùn)行。
從圖像化的本地終端(假設(shè)其IP地址為ip0)中以root用戶的身份登錄到SMCP主機(jī)(假設(shè)其IP地址為ip1):
在本地終端中執(zhí)行
% xhost +
% telnet ip1
再在SMCP主機(jī)上設(shè)置環(huán)境變量DISPLAY
# DISPLAY =ip1:0.0
# export DISPLAY
# vxva
15、激活/去激活/導(dǎo)出/導(dǎo)入卷組
smcp01>vxvol -g smpdg stopall
smcp01>vxdg deport smpdg
smcp02>vxdg import smpdg
smcp02>vxvol -g smpdg startall
16、SUN Netra T 1125雙機(jī)設(shè)置的周詳注解
A、網(wǎng)絡(luò)資源的設(shè)置
SUN Netra T 1125 共有4 個(gè)網(wǎng)卡:hme0 ,hme1 ,hme2和hme3 。
hme0和hme1 是SUN 服務(wù)器和公網(wǎng)通信的主備用網(wǎng)卡,只需要一個(gè)IP 地址;
hme2和hme3 作為雙機(jī)之間心跳檢測(cè)用,也需要設(shè)置一個(gè)IP 地址。
另外,TELLIN SMP 對(duì)外使用的是個(gè)浮動(dòng)的IP 地址,和數(shù)據(jù)IP 在同一網(wǎng)段,此地址由SUN 的雙機(jī)軟件SUN Cluster進(jìn)行管理。
1)怎么修改IP地址和主機(jī)名
IP地址涉及的文件有:
/etc/hosts (change the IP address)
/etc/netmasks (if subnetting)
/etc/defaultrouter (to specify the new gateway for this subnet)
改動(dòng)主機(jī)名涉及的文件有:
/etc/hosts (change to the new hostname)
/etc/nodename (change to the new hostname)
/etc/hostname. (where is the name of the primary
interface for this system, i.e hostname.hme0 or hostname.le0.
Change to the new hostname.)
/etc/net/ticlts/hosts (change both columns to the new hostname)
/etc/net/ticots/hosts (change both coluums to the new hostname)
/etc/net/ticotsord/hosts (change both columns to the new hostname)
改完上述文件之后推薦重起一下機(jī)器。
2)怎么設(shè)置hme0、hme1兩塊網(wǎng)卡的主備關(guān)系
只要給hme0設(shè)置地址就夠了。
然后會(huì)再后面的雙機(jī)設(shè)置中執(zhí)行下面的命令建立邏輯機(jī)的時(shí)候會(huì)創(chuàng)建出這種關(guān)系來。
#scconf smcp -L smcpwork -n smcp01,smcp02 -g smcpdg -i hme0,hme0,smcpwork -m
3) 設(shè)置NAFO (Network Adapter Fail Over)
/opt/SUNWpnm/bin/pnmset
以下顯示相關(guān)信息
In the following, you will be prompted to do
configuration for network adapter failover
do you want to continue ... [y/n]: y
How many NAFO backup groups on the host [1]:
Enter backup group number [0]:
Please enter all network adapters under nafo0
hme0 hme1
The following test will evaluate the correctness
of the customer NAFO configuration...
name duplication test passed
Check nafo0... < 20 seconds
hme0 is active
remote address = 129.9.168.101
test hme1 wait...
nafo0 test passed 本信息表明通過測(cè)試
注意:
NAFO設(shè)置時(shí)對(duì)網(wǎng)線的需求較高,有時(shí)要做多次才能成功。
B、設(shè)置雙機(jī)
雙機(jī)設(shè)置的一般過程是,先啟動(dòng)雙機(jī)系統(tǒng),在一個(gè)節(jié)點(diǎn)上設(shè)置cluster和包,檢查無誤后,使設(shè)置生效,然后就能進(jìn)行相應(yīng)操作。
注意:
使用雙機(jī)前,需要檢查 smcpdg,querydg 的狀態(tài)。執(zhí)行如下步驟:
(1) 在兩個(gè)節(jié)點(diǎn)分別執(zhí)行:
# vxdg list
應(yīng)該只看到 rootdg ,不能看到 smcpdg 和 querydg。
(2) 如果上以步操作看到 smcpdg 或 querydg,需要檢查IDS是否在運(yùn)行(Online)。
如果在運(yùn)行,先終止IDS運(yùn)行,然后使用 vxdg deport 放棄對(duì) Disk Group 的控制。
====================
雙機(jī)設(shè)置的一般過程是,先啟動(dòng)雙機(jī)系統(tǒng),在一個(gè)節(jié)點(diǎn)上設(shè)置cluster和包,檢查無誤后,使設(shè)置生效,然后就能進(jìn)行相應(yīng)操作。
注意:
使用雙機(jī)前,需要檢查 smcpdg, querydg 的狀態(tài)。執(zhí)行如下步驟:
在兩個(gè)節(jié)點(diǎn)分別執(zhí)行:
# vxdg list
應(yīng)該只看到 rootdg ,不能看到 smcpdg 和 querydg。
如果上以步操作看到 smcpdg 或 querydg,需要檢查IDS是否在運(yùn)行(Online)。如果在運(yùn)行,先終止IDS運(yùn)行,然后使用 vxdg deport 放棄對(duì) Disk Group 的控制。
對(duì)雙機(jī)系統(tǒng)進(jìn)行設(shè)置
在1號(hào)機(jī)運(yùn)行#scadmin startcluster smcp01 smcp。
待1號(hào)機(jī)雙機(jī)軟件起來之后,在2號(hào)機(jī)運(yùn)行#scadmin startnode,將其作為節(jié)點(diǎn)加入雙機(jī)對(duì)雙機(jī)系統(tǒng)上邏輯機(jī)的設(shè)置
邏輯機(jī)和應(yīng)用程式對(duì)應(yīng),是雙機(jī)系統(tǒng)管理應(yīng)用程式的方式,每個(gè)邏輯機(jī)在雙機(jī)系統(tǒng)上只對(duì)外提供一個(gè)IP地址。
================================================
(2)設(shè)置cluster
僅僅在一臺(tái)主機(jī)上運(yùn)行
#scconf iin -L scpwork -n smcp02,smcp01 -g scpdg -i hme0,hme0,scpwork -m
注意:
該命令格式為:
scconf -L -n ,
-g -i
-m
其中 的順序決定了該邏輯機(jī)在node1 上是主用,在node2上是備用。
備注:這里的邏輯機(jī)的主機(jī)名對(duì)應(yīng)的浮動(dòng)IP地址必須要在/etc/hosts文件中設(shè)置。
在每臺(tái)機(jī)器上都要建立管理文件系統(tǒng)
# scconf iin -F scpwork scpdg
注意:
該命令格式為:
scconf -F
在 2 號(hào)機(jī)上運(yùn)行設(shè)置邏輯主機(jī)querywork
#scconf iin -L smpwork -n smcp01,smcp02 -g smpdg -i hme0,hme0,smpwork -m
建立管理文件系統(tǒng)
# scconf iin -F querywork querydg
注冊(cè)雙機(jī)
hereg -u querywork
query.register
hereg -u smcpwork
smcp.register
C、設(shè)置應(yīng)用程式
/etc/opt/SUNWcluster/conf目錄
能通過ccd.datatbase和smcp.cdb兩個(gè)文件查看雙機(jī)基本設(shè)置和cluster的信息,不要去手工改動(dòng)這些文件,讓系統(tǒng)去維護(hù)他們。
其中ccd.database有專門的守護(hù)進(jìn)程維持該文件在兩節(jié)點(diǎn)上的一致。
/opt/SUNWcluster/ha目錄
該目錄下包含了smcp和query兩個(gè)子目錄。smcp目錄存放smcp部分的Data service相關(guān)的設(shè)置文件和執(zhí)行腳本,其中smcp.config文件記錄了smcpwork的基本設(shè)置,smcp.register用來注冊(cè)smcpwork,其他的文件是啟動(dòng)、停止和監(jiān)測(cè)smcpwork的運(yùn)行腳本。
query目錄存放query部分的Data service相關(guān)的設(shè)置文件和執(zhí)行腳本,其中query.config文件記錄querywork的基本設(shè)置,query.register用來注冊(cè)querywork,其他文件是必需的運(yùn)行腳本。 在把這兩個(gè)Data service加入cluster時(shí),必須分別通過hareg命令來進(jìn)行注冊(cè),這些步驟已在安裝時(shí)通過執(zhí)行smcp.register和query.register完成。
備注:再conf目錄下的文件ccd.database如果兩臺(tái)機(jī)器不一致的話,就會(huì)導(dǎo)致雙機(jī)不能
正常的轉(zhuǎn)換。
D、雙機(jī)設(shè)置的檢驗(yàn)
(1) 先在主機(jī)上運(yùn)行#scadmin startcluster smcp01 smcp
(2) 等待主機(jī)雙機(jī)軟件運(yùn)行起來后在備機(jī)上運(yùn)行
#scadmin startnode
(3) 在兩臺(tái)主機(jī)運(yùn)行df -k 及ifconfig -a檢驗(yàn)是否有錯(cuò),運(yùn)行hastat查看HA狀態(tài),可看到hme0捆綁了smcp,query 應(yīng)用的浮動(dòng)IP:
hme0 .... 129.9.168.101
hme0:1 .... 129.9.168.120
hme0:2 .... 129.9.168.140
(4) 用haswitch命令進(jìn)行轉(zhuǎn)換實(shí)驗(yàn),將邏輯主機(jī)smcpwork 由物理主機(jī)smcp01上轉(zhuǎn)換到物理主機(jī)smcp02上。
# haswitch smcp02 smcpwork
要查看是否轉(zhuǎn)換成功,則有以下方法:
在主機(jī) smcp02上用df -k查看磁盤資源。如果顯示信息有以下內(nèi)容,則說明轉(zhuǎn)換成功:
/dev/vx/dsk/smcpdg/smcpdg-stat
在主機(jī) smcp02上用 ifconfig -a 查看 ip 地址,若邏輯主機(jī)smcpwork的IP地址129.9.169.120
此時(shí)已綁定在hme0網(wǎng)卡(即公網(wǎng)的主網(wǎng)卡)上,則說明轉(zhuǎn)換成功。
(5) 將/opt/SUNWcluster/bin/xps_check覆蓋該目錄下的db_check
用get_node_status檢驗(yàn)雙機(jī)的狀態(tài)
smcp02>get_node_status
sc: included in running cluster
node id: 1
membership: 0 1
interconnect0: selected
interconnect1: up
vm_type: vxvm
vm: up
db: up
17、SUN Netra T 1125頭次安裝的時(shí)候怎么來設(shè)置Terminal Concentrator。
=====================================
在TELLIN SMP 的SUN Netra T1125 標(biāo)準(zhǔn)設(shè)置中,主機(jī)為不帶顯示卡和顯示器的SUN 服務(wù)器,因此使用終端集線器將兩臺(tái)主機(jī)上控制臺(tái)(Console)信號(hào)接出到監(jiān)視臺(tái)上顯示。由于在Solaris沒有啟動(dòng)前,無法對(duì)主機(jī)進(jìn)行控制,必須先設(shè)置終端集線器。如果Terminal Concentrator
(簡(jiǎn)稱TC)已設(shè)置好,則能不用重設(shè)。
下面給出終端集線器的設(shè)置步驟。終端集線器一經(jīng)設(shè)置完成就無須每次開機(jī)后再次設(shè)置,以下的設(shè)置過程假設(shè) TC 的IP 地址為 129.9.168.23,子網(wǎng)掩碼為 255.255.255.0。
(1) 用一臺(tái)Sun工作站,用RS232?J45電纜連接主機(jī)的串口A和終端集線器的 端口1。
在工作站/etc/remote文件中加上:
a:dv=/dev/term/a:br 9600:el=^C^S^Q^U^D:ie=%$e=^D:el=^C^S^Q^U^D:ie=%$e=^D:
(2) 在ROOT用戶下鍵入: tip a
(3) 正確連接終端集線器和公網(wǎng)
(4) 將終端集線器上電
(5) 按一下終端集線器的Test鍵,Test指示燈亮并進(jìn)入測(cè)試模式。注意:應(yīng)當(dāng)在電源燈亮后即時(shí)按
Test鍵,不能等到其進(jìn)入正常運(yùn)行態(tài),相當(dāng)于計(jì)算機(jī)中按“DEL”進(jìn)入設(shè)置狀態(tài)。
完成測(cè)試后,正確的各指示燈狀態(tài)如表2-2所示。
表2-2 終端集線器的指示燈
燈名 Power Unit Net Attn Load Active
顏色 Green Green Green Amber Green Green
狀態(tài) ON ON ON OFF OFF 慢閃
(6) 在SUN工作站上將出現(xiàn)monitor::提示符,使用addr命令設(shè)置TC的IP和子網(wǎng)屏蔽碼
monitor:: addr
輸入IP: 129.9.168.23
輸入子網(wǎng)屏蔽碼: 255.255.255.0
(7) 退出tip應(yīng)用程式
在monitor::提示符下:
monitor:: boot
monitor:: ~.
( 關(guān)掉終端集線器電源并重新開機(jī),若用PC機(jī) 能 telnet 上去,即驗(yàn)證了上述設(shè)置的正確性。此時(shí)對(duì)終端集線器的各端口進(jìn)行設(shè)置:
telnet 129.9.168.23
Trying 129.9.168.23...
Connected to 129.9.168.23.
Escape character is ’^]’.
Enter Annex port name or number: cli
annex: su (轉(zhuǎn)換到終極用戶狀態(tài))
Password: 此處鍵入TC的IP地址
annex admin
Annex administration MICRO-XL-UX R7.0.1, 8 ports
admin : set port=1-8 type dial_in imask_7bits Y
You may need to reset the appropriate port, Annex subsystem or
reboot the Annex for changes to take effect.
admin : set port=2-7 mode slave
You may need to reset the appropriate port, Annex subsystem or
reboot the Annex for changes to take effect.
admin : quit
annex boot
bootfile:
warning:
*** Annex (129.9.168.23) shutdown message from port v1 ***
Annex (129.9.168.23) going down IMMEDIATELY
Connection closed by foreign host.w
安裝完畢,撤消1口的串口線。
以上操作過程中可鍵入“?”或“help"出現(xiàn)幫助,在當(dāng)前工作站上,可用使用PC機(jī)的終極終端等程式對(duì)TC進(jìn)行設(shè)置。
===================================
18、查看物理磁盤的信息
用一下命令查看物理磁盤是分配給哪個(gè)邏輯卷組。
#vxdisk list
DEVICE TYPE DISK GROUP STATUS
c0t0d0s2 sliced - - error
c0t0d0s7 simple c0t0d0s7 rootdg online
c0t8d0s2 sliced - - error
c1t1d0s2 sliced c1t1d0 smcpdg online
c1t2d0s2 sliced - - online
c1t3d0s2 sliced c1t3d0 smcpdg online
c1t4d0s2 sliced - - online
c1t6d0s2 sliced - - online
c2t1d0s2 sliced c2t1d0 smcpdg online
c2t2d0s2 sliced - - online
c2t3d0s2 sliced c2t3d0 smcpdg online
c2t4d0s2 sliced - - online
c2t6d0s2 sliced - - online
19、SUN的小型機(jī)的內(nèi)核參數(shù)的修改/etc/system
set shmsys:shminfo_shmmax=268435456
set semsys:seminfo_semmni=4096
set semsys:seminfo_semmns=4096
set semsys:seminfo_semmnu=4096
set semsys:seminfo_semume=64
set semsys:seminfo_semmsl=100
set shmsys:shminfo_shmmin=100
set shmsys:shminfo_shmmni=100
set shmsys:shminfo_shmseg=100
20、SUN雙機(jī)運(yùn)行的日志
cluster日志記在 var/adm/messaage 中,如果cluster運(yùn)行中出現(xiàn)故障,我們能查看該文件以幫助定位問題。另外,注意觀察控制臺(tái)屏幕上的消息。
cluster運(yùn)行時(shí)的錯(cuò)誤和告警信息,包括定時(shí)監(jiān)測(cè)的結(jié)果,通常會(huì)實(shí)時(shí)的顯示到控制臺(tái)上。
21、怎么使用光驅(qū)
A、怎么利用光驅(qū)啟動(dòng)或安裝
先在主機(jī)上同時(shí)按住stop和A鍵,即是:stop+A,這樣進(jìn)入OK命令環(huán)境;
再在OK狀態(tài)下輸入boot cdrom則能進(jìn)入光盤啟動(dòng)了。
B、怎么讀光驅(qū)的內(nèi)容
將光盤塞入光驅(qū)中,會(huì)自動(dòng)掛接的
df -k看看光盤掛接在哪個(gè)目錄下面了,
然后進(jìn)入該目錄就能訪問到光盤中的內(nèi)容了。
22、怎么使用終端集線器對(duì)SUN雙機(jī)進(jìn)行console的功能訪問
修改/etc/default/login文件
將CONSOLE=/dev/console一行修改為
CONSOLE=/dev/console
否則只能通過TC來登錄主機(jī),其他方式無法登錄。
23、關(guān)閉主機(jī)的命令
#shutdown --
24、怎么利用遠(yuǎn)程磁帶機(jī)來備份文件
假設(shè)兩臺(tái)機(jī)器smcp01和smcp02,只有在第二臺(tái)機(jī)器上才有磁帶機(jī),那么第一臺(tái)機(jī)器要通過如下的方式來使用第二臺(tái)機(jī)器的磁帶機(jī):
寫:
#tar cvf - /tmp/yqx | rsh smcp02 dd of=/dev/rmt/0m
如果執(zhí)行不成功則先設(shè)置:
#obs=20b (20個(gè)block)
讀:
#rsh smcp02 dd if=/dev/rmt/0m | tar tvf -
如果執(zhí)行不成功,就先設(shè)置:
#bs=20b
25、怎么查看當(dāng)前的網(wǎng)絡(luò)子網(wǎng)、網(wǎng)絡(luò)的掩碼是多少
1)查看子網(wǎng)
#netstat -in
查看hme0對(duì)應(yīng)的:
Name Mtu Net/Dest Address Ipkts Ierrs Opkts Oerrs Collis Queue
hme0 1500 172.0.8.0 172.0.8.68 3430395 0 1134355 0 0 0
可知子網(wǎng)就是172.0.8.0
2)查看掩碼
查看/etc/netmasks就能了
3)查看地址
#ifconfig -a
或查看/etc/hostname.hme0
注意:有些機(jī)器上的網(wǎng)卡的物理名字是le0。
26、怎么從cluster中刪除一個(gè)邏輯機(jī)呢?
1)先將邏輯機(jī)上的應(yīng)用進(jìn)行去注冊(cè)
hareg -n scpwork;
hareg -u scpwork;
2)再將應(yīng)用從邏輯機(jī)上刪除
scconf tellincluster(cluster名) -s -r scpserv(應(yīng)用名) scpwork(邏輯機(jī)名)
3)最后將邏輯機(jī)從cluster中刪除
方法一)用scinstall來選擇菜單change/logic hosts/remove 來刪除
方法二)直接用命令scconf iin -L scpwork -r
備注:用scinstall命令能查看到所有的關(guān)于sun雙機(jī)設(shè)置的信息。
27、sun的邏輯卷組、邏輯卷的創(chuàng)建總結(jié)步驟
SUN:Volumn manager 簡(jiǎn)稱VM,在此環(huán)境下永久性修改smcpdg/querydg等磁盤卷組的用戶屬性及讀寫權(quán)限的時(shí)候,不能用chown和chmod來修改的,只能用vxedit來修改。
補(bǔ)充:
初始化物理磁盤:vxdisksetup -i c1t2d0
vxdisksetup -i c2t2d0
創(chuàng)建卷組: vxdg init smpdbdg smpdbdg1=c1t2d0
vxdg -g smpdbdg adddisk smpdbdg2=c2t2d0
創(chuàng)建卷組掛接的文件系統(tǒng):
vxassist -g smpdbdg -U fsgen make smpdbdg-stat 2m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror smpdbdg-stat layout=nostripe smpdbdg2
newfs /dev/vx/rdsk/smpdbdg/smpdbdg-stat
創(chuàng)建邏輯卷:
vxassist -g smpdbdg -U gen make lv_rootdbs 128m layout=nolog smpdbdg1
vxassist -g smpdbdg mirror lv_rootdbs layout=nostripe smpdbdg2
修改卷組權(quán)限:
vxedit -g smpdg -v set user=smp group=smp lv_smp
vxedit -g smpdbdg -v set user=informix group=informix mode=660 lv_rootdbs
查看卷組激活情況:vxdg list
導(dǎo)入卷組:vxdg import smcpdg
激活卷組:vxvol -g smcpdg start all
去激活卷組:vxvol -g smcpdg stop all
28、sun雙機(jī)設(shè)置時(shí)關(guān)于自動(dòng)啟動(dòng)雙機(jī)的設(shè)置
為了確保SMCP雙機(jī)在異常情況下能在雙機(jī)重新啟動(dòng)后自動(dòng)拉起cluster,SUN機(jī)型:把雙機(jī)系統(tǒng)的自啟動(dòng)腳本S99startcluster拷貝到系統(tǒng)的/etc/rc3.d目錄下。此腳本包含下述內(nèi)容,其中通常需要根據(jù)現(xiàn)場(chǎng)情況進(jìn)行修改的項(xiàng)目有:
LOCALNODENAME、 REMOTENODENAME、 CLUSTERNAME
if [ $LOCALNODENAME = "smcp01" ]; then
REMOTENODENAME="smcp02"
# LOCALID=0
# REMOTEID=1
else
REMOTENODENAME="smcp01"
# LOCALID=1
# REMOTEID=0
fi
CLUSTERNAME=smcp-cluster
29、sun的總段上亂碼的處理
當(dāng)在終端窗口上進(jìn)行輸入字符的時(shí)候,出現(xiàn)了亂碼的時(shí)候,這個(gè)時(shí)候有兩種解決辦法:
1)敲打del
2) Ctrl + <---BkSp(向左的刪除鍵)
30、查看一個(gè)邏輯卷組下面有哪些物理磁盤
root@smp2 # vxdg list smpdbdg
Group: smpdbdg
dgid: 1035450560.1072.smp2
import-id: 0.1071
flags:
copies: nconfig=default nlog=default
config: seqno=0.1027 permlen=3447 free=3445 templen=2 loglen=522
config disk c1t0d0s2 copy 1 len=3447 state=clean online
log disk c1t0d0s2 copy 1 len=522
30、sun雙機(jī)的維護(hù)命令
#scinstall
命令能進(jìn)行一系列的sun雙機(jī)的維護(hù),如:
Assuming a default cluster name of smp
Checking on installed package state
....................
============ Main Menu =================
1) Install/Upgrade - Install or Upgrade Server
Packages or Install Client Packages.
2) Remove - Remove Server or Client Packages.
3) Change - Modify cluster or data service configuration
4) Verify - Verify installed package sets.
5) List - List installed package sets.
6) Quit - Quit this program.
7) Help - The help screen for this menu.
Please choose one of the menu items: [7]:
31、怎么刪除邏輯卷
vxedit -g scpdbdg -fr rm 邏輯卷名
32、修改/etc/opt/SUNWcluster/conf/hanfs/vfstab.scpwork的文件系統(tǒng)
33、關(guān)于SUN小型機(jī)中創(chuàng)建用戶注意
有時(shí)候創(chuàng)建好用戶了之后,我們又會(huì)將他刪除,正確的操作應(yīng)該是userdel 用戶名來刪除。不過有時(shí)候可能會(huì)被工程師直接從/etc/passwd中刪除,這個(gè)時(shí)候如果再來用useradd添加同名用戶的時(shí)候,系統(tǒng)會(huì)提示添加失敗,這個(gè)時(shí)候必須要注意將/etc/shadow文件中的該用戶的設(shè)置行也要?jiǎng)h除,刪除以后讓/etc/shadow文件和/etc/passwd文件中的用戶保持一致,這樣就又能用useradd來添加了。
34、怎么實(shí)現(xiàn)一個(gè)用戶屬于多個(gè)用戶組呢?
35、查看swap空間
#swap -s
eg:
total: 76552k bytes allocated + 17184k reserved = 93736k used, 296608k available