31 Temmuz 2019 Çarşamba

selinux aksaklık nedeninin incelenmesi

selinux kullanmaya başladığımızda, audit ile ilgili sorun yaşamaya başladıysak ilk yapmamız gereken nedeni sorunun nedenini sisteme sormak olur.

Öncelikle için policy paketleri ile ilgili policycoreutils-python-2.5-29.el7_6.1.x86_64 paket yüklenmiş olmalı.

[root@rhel7lab01 ~]#
[root@rhel7lab01 ~]# yum info policycoreutils-python-2.5-29.el7_6.1.x86_64
Loaded plugins: langpacks, priorities, product-id, ps, remove-with-leaves, search-disabled-repos, show-leaves, subscription-manager, upgrade-helper
Installed Packages
Name        : policycoreutils-python
Arch        : x86_64
Version     : 2.5
Release     : 29.el7_6.1
Size        : 1.2 M
Repo        : installed
From repo   : rhel-7-server-rpms
Summary     : SELinux policy core python utilities
URL         : http://www.selinuxproject.org
License     : GPLv2
Description : The policycoreutils-python package contains the management tools use to manage
            : an SELinux environment.

[root@rhel7lab01 ~]#

Paket yüklüyse, öncelikle izin verilmeyen işlemleri listeleri, hangisi bizim aksaklığımızla alakalı ise audit bilgisini alarak izin verebiliriz

 grep  denied /var/log/audit/audit.log

[root@rhel7lab01 ~]# grep 1564549471.069:2262  /var/log/audit/audit.log |audit2why
type=AVC msg=audit(1564549471.069:2262): avc:  denied  { read } for  pid=15715 comm="nginx" name="/" dev="dm-2" ino=64 scontext=system_u:system_r:httpd_t:s0 tcontext=system_u:object_r:unlabeled_t:s0 tclass=dir permissive=0

        Was caused by:
                Missing type enforcement (TE) allow rule.

                You can use audit2allow to generate a loadable module to allow this access.

type=AVC msg=audit(1564549408.164:2259): avc:  denied  { read } for  pid=15703 comm="nginx" name="/" dev="dm-2" ino=64 scontext=system_u:system_r:httpd_t:s0 tcontext=system_u:object_r:unlabeled_t:s0 tclass=dir permissive=0                                                           

        Was caused by:
                Missing type enforcement (TE) allow rule.

                You can use audit2allow to generate a loadable module to allow this access.

type=AVC msg=audit(1564549419.241:2260): avc:  denied  { read } for  pid=15703 comm="nginx" name="rhel7" dev="dm-2" ino=67159104 scontext=system_u:system_r:httpd_t:s0 tcontext=unconfined_u:object_r:unlabeled_t:s0 tclass=dir permissive=0                                             

        Was caused by:
                Missing type enforcement (TE) allow rule.

                You can use audit2allow to generate a loadable module to allow this access.

incelediğimiş işlem güvenebileceğimiz bir işlemse buna izin aşağıdaki gibi izin verebiliriz.


[root@rhel7lab01 ~]# grep nginx   /var/log/audit/audit.log |audit2allow   > nginx.te
[root@rhel7lab01 ~]# cat nginx.te 


#============= httpd_t ==============

#!!!! WARNING: 'unlabeled_t' is a base type.
allow httpd_t unlabeled_t:dir read;
[root@rhel7lab01 ~]# 

[root@rhel7lab01 ~]# grep nginx   /var/log/audit/audit.log |audit2allow  -M nginx 
******************** IMPORTANT ***********************
To make this policy package active, execute:

semodule -i nginx.pp

[root@rhel7lab01 ~]# semodule -i nginx.pp
[root@rhel7lab01 ~]# 





21 Temmuz 2019 Pazar

kendi ssl sertifikamızı oluşturmak

Aşağıdaki script ile kolay bir şekilde oluşturabiliriz.


remzi@han:/tmp/sslcert$ cat ~/bin/create-self-cert.sh
#!/bin/bash
set +x
if [ $# -eq  "1" ]
then
certname=$1
else
certname=`hostname -f`
fi
# openssl genrsa -des3 -out $certname.key  2048
openssl genrsa -out $certname.key  2048
openssl req    -new  -key $certname.key -out $certname.csr
openssl x509   -req  -days 3650 -in $certname.csr -signkey $certname.key -out $certname.cert



Kullanımı:

remzi@han:/tmp/sslcert$ ./create-self-cert.sh localhost


30 Haziran 2019 Pazar

cd/dvd kalıbı oluşturmada kullandığım script

# cat   createiso.sh
#!/bin/bash
export name=$1
genisoimage -U -r -v -T  -allow-limited-size -input-charset iso8859-9 --joliet -joliet-long -V $name -volset $name  -o $name.iso  $name/




openvpn kullanıcısının, vpn kullanıcı adı ve parolasını bir dosyadan okutarak otomatik bağlantıyı sağlayabilmesi


Openvpn ayar dosyasının içerisindeki
                                                             auth-user-pas
parametsini
                                                             auth-user-pass userpass.conf
ile değiştirip, userpass.conf içerisine
                                                           kullanıcıadı
                                                           kullanıcıparolası
yazmak yeterli oluyor.
artık openvpn kullanıcı olarak çalıştırdığımızda userpass.conf dosyası içinden kullanıcı adı/parolayı okuyarak bağlantıyı sağlayacaktır.

Sisteminizde birdek çok kullanıcı veya server üzerinde bu işlemi yapacak olursanız,
ayar dosyalarının ve sertifika dosyalarının sahip yetkilerini chmod 600 ile sadece dosya sahibinin okuyabileceği şekilde yapılandırmak gerekli. Aksi durumda sistemdeki her kullanıcı sertifika dosyalarınızı ve kullanıcı adı/porala bilgilerine erişebilir.

                 

22 Mayıs 2019 Çarşamba

Linux tabanlı bir sistem kurulumu yaparken nelere dikkat etmeliyim

Linux tabanlı bir işletim sistemi kurulurken, ilerleyen zamanlarda sorun çıktığında çözülmesini kolaylaştırmak veya sorunun etkisini azaltmak için genel amaçlar için kurulumu yapılacak sistemlerde  dikkat etmemiz gerekenler;

1. lvm  bir sistem düşünmemek gerekiyor(istisnalar hariç)

2. işletim sistemimiz btrf dosya sistemini destekliyorsa, root bölüm için btrfs kullanılmalı ve snapper aktif olacak şekilde ayarlanmalı.  Diger bölümler(home vs.) xfs olmalı.

3. boot bölümüne 1GB alan ayırın. Bu çok büyük gibi görünsede, bir kaç yıl sonra,
eski kernellerin otomatik temizlenmemesinden dolayı, fazla değildir.
Şayet gönün birinde boot dolur ve güncellemede kernel güncellemesi yarım kalırsa, sistem yeniden başladığında başınız ağrıyabilir.

4.  var, var/log ve home bölümü leri  ayrı bir lv içinde tutulmalı

5. Volum grubun tamamın kullanıma verilmemeli, en azından %10 bir bölüm, beklenmedik ihtiyac ve durumlara karşı, boş tutulmalı.

6. Sistem ram kapasitesi el veriyorsa, /tmp tmpfs olarak ram kullanacak şekilde ayarlanmalı.

7. sistem saatinin düzgünlüğünü sağlamak için ntp kullanılmalı (eski sistemlerde ntp, yeni sistemlerde chrony service ayarlanması )

8. root ile sisteme giriş önlenmeli, kullanıcıların root yetkisine ihtiyacı varsa, kendi kullanıcılarıyla giriş yaptıktan sonra sudo ile root yetkilerini kullanmaları

şimdilik bu kadar. Arkası daha sonra.

Ubuntu dağıtımlarında yeni açılan kullanıcının home dizinin varsayılan yetkilerinin değiştirilmesi

Ubuntu tabanlı sistemlerde varsayılan olarak tüm kullanıcılar bir birlerinin dizinlerini ve dosyalarını görebilir fakat değiştiremez.
Bunun nedeni;
                         /etc/adduser.conf
dosyasındaki
                       DIR_MODE=0755

Şayet kullanıcılar bir birlerinin home dizinlerini görmemesini istiyorsak dir_mode değeri 0700

                      DIR_MODE=0700

olmalı.

İlave olarak kullanıcıların açtığı dizin ve dosyaları varsayılan olarak diğer kullanıcılar görebilir ve okuyabilir. Bunun önlemenin en basit yolu umask değerini 0077 yapmaktan geçer.

remzi@i7-7567:/tmp/test$ umask
0077
remzi@i7-7567:/tmp/test$ rm -rf *
remzi@i7-7567:/tmp/test$ ls -la
total 8
drwxrwxr-x  2 remzi remzi 4096 May 22 19:37 .
drwxrwxrwt 26 root  root  4096 May 22 19:33 ..
remzi@i7-7567:/tmp/test$ touch testfile
remzi@i7-7567:/tmp/test$ mkdir testdir
remzi@i7-7567:/tmp/test$ ls -al
total 12
drwxrwxr-x  3 remzi remzi 4096 May 22 19:38 .
drwxrwxrwt 26 root  root  4096 May 22 19:33 ..
drwx------  2 remzi remzi 4096 May 22 19:38 testdir
-rw-------  1 remzi remzi    0 May 22 19:38 testfile
remzi@i7-7567:/tmp/test$


umask değerinin tüm sistem değiştirmek istiyorsak  login.defs içindeki değeri düzenlememiz gerekmektedir.
/    etc/login.defs
# Varsayılan değer
# UMASK           022
# Güvenlik nedeniyle değiştirilen yeni değer
UMASK 0077


Ubuntu sürümlerini indirebileceğimiz ana sunucu:
http://releases.ubuntu.com/

16 Nisan 2019 Salı

Disk bölümle tablosunu sfdisk ile yedeklemek

Bir diskin bölümle tablosunu yedeklemenin bir çok yöntemi vardır.
Bu yöntemlerden bir taneside sfdisk ile dump almak.

Örnek;

root@i7567:~# sfdisk -d /dev/sda
label: gpt
label-id: A81880A3-3FDD-4295-B137-ACA3FABECA05
device: /dev/sda
unit: sectors
first-lba: 34
last-lba: 500118158

/dev/sda1 : start=        2048, size=     1048576, type=C12A7328-F81F-11D2-BA4B-00A0C93EC93B, uuid=184574EE-5795-422F-9071-318E3048D2B5
/dev/sda2 : start=     1050624, size=     1499136, type=0FC63DAF-8483-4772-8E79-3D69D8477DE4, uuid=7226C316-4A0A-471E-A80A-F55AB21762D0
/dev/sda3 : start=     2549760, size=   497567744, type=E6D6D379-F507-44C2-A23C-238F2A3DF928, uuid=59F46E76-1F70-4D31-9788-1F184C55A3F5
root@i7567:~#


# sfdisk -d /dev/sda > sda-dump.txt

kazara disk bölümle tablosunda yalnış bir şey yaparsak,

sfdisk /dev/sda <  sda-dump.txt

Disk bölümle tablosunu eski haline getirebiliriz.



Akü deyip geçmeyelim

Bu günlerde havaların yağışlı ve rüzgarlı olması  nedeniyle uzun süreli motosiklet kullanamadım.
Durum böyle olunca, motosikletteki mevcut akü yeteri kadar dolmuyor ve motoru çalıştırırken, özellikle soğuk havalarda, sıkıntı oluşmaya başladı. Mevcut akü, 10 yılını aşmış bir akü oluncada, artık yeni bir akü alayım dedim. Kalite/Fiyat oranını göz önüne alarak bosch M6-012 aküsünü almaya karar verdim ve aldım.


Değişik bir akü, akünün kutusunda, içine konacak özel bir asit geliyor.
Yalnız içine sıvısını koyuyorsunuz ve yaklaşık yarım saat bekliyorsunuz.
Yarım saat sonra akünün içinde sıvı yerine özel bir jel oluşmuş oluyor.
Sonrasında şarj bağladım ve 6-7 saatte şarj oldu.



Akünün tipi AGM olarak geçiyor ve şarj ederken dikkatli olmak lazım.

Aküyü motosiklete takıp, marşa basdığımda direk çalıştı. 

Motosiklek kullananlara Bosch M6 serisi aküleri tavsiye ederim.

İlave olarak aküm satın aldığım firmadaki ilgili arkadaş, şayet uzun süreli kullanım olmaz ve akü tam şarj olmaz ise, iki ayda bir söküp şarj cihazı ile akünün şarjının tamamlamamı tavsiye ettim.






11 Nisan 2019 Perşembe

ntp sunucusunda yerel saati kullanmak gerekirse


ntp sunucumuz günün birinde, her hangi bir değişiklik nedeniyle, master ntp sunucularından zamanı alamayarak senkronize olamazlarsa, kullanılamaz duruma düşerler.
Bu durumda ntp servisini kullanılabilir hale getirmenin yolu, ntp çalışan sistemin yerel saatini almasını sağlayarak, ntp servisini kullanılabilir hale getirebiliriz. Şayet mevcut sunucudan başka kullanılabilecek ntp sunucusu olmadığında, sistemin kendi saatini alabiliriz.

Yerel saati kullanabilmemiz için ntp.conf'a ilave etmemiz gereken satırlar;
server 127.127.1.0
fudge 127.127.1.0 stratum 10

yapılandırmayı düzenleyip, ntp servisini yeniden başlattıktan sonra ntpq ile servisi kontrol edebiliriz.


root@node13 ~ # ntpq -c as

ind assid status  conf reach auth condition  last_event cnt
===========================================================
  1 36159  961a   yes   yes  none  sys.peer    sys_peer  1

root@node13 ~ # ntpq -c lpeer
     remote           refid      st t when poll reach   delay   offset  jitter
==============================================================================
*LOCAL(0)        .LOCL.          10 l   33   64  377    0.000    0.000   0.000
root@node13 ~ # systemctl restart ntp
root@node13 ~ #


# ntpdate -u 192.168.80.254
11 Apr 19:06:23 ntpdate[1231]: adjust time server 192.168.80.254 offset -0.058454 sec



Güncel linux dağıtımlarında ntpd yerine chrony kullanılmaya başlamıştır. Bundan dolayı, chrony için
/etc/chrony.conf içerisine
server 127.127.1.0
local stratum 10
allow 192.168.253.0/24

satırlarını ekleyerek ntpd servisi çalıştırılabilir. allow satırı ihtiyaca göre değiştirilir.

4 Şubat 2019 Pazartesi

Red Hat relase dosyaları


[root@sebil ~]# lsb_release -a
LSB Version:    :core-4.1-amd64:core-4.1-noarch:cxx-4.1-amd64:cxx-4.1-noarch:desktop-4.1-amd64:desktop-4.1-noarch:languages-4.1-amd64:languages-4.1-noarch:printing-4.1-amd64:printing-4.1-noarch
Distributor ID:    RedHatEnterpriseServer
Description:    Red Hat Enterprise Linux Server release 7.6 (Maipo)
Release:    7.6
Codename:    Maipo

[root@sebil ~]# cat /etc/redhat-release
Red Hat Enterprise Linux Server release 7.6 (Maipo)
[root@sebil ~]#



[root@sebil ~]# cat /etc/os-release
NAME="Red Hat Enterprise Linux Server"
VERSION="7.6 (Maipo)"
ID="rhel"
ID_LIKE="fedora"
VARIANT="Server"
VARIANT_ID="server"
VERSION_ID="7.6"
PRETTY_NAME="Red Hat Enterprise Linux"
ANSI_COLOR="0;31"
CPE_NAME="cpe:/o:redhat:enterprise_linux:7.6:GA:server"
HOME_URL="https://www.redhat.com/"
BUG_REPORT_URL="https://bugzilla.redhat.com/"

REDHAT_BUGZILLA_PRODUCT="Red Hat Enterprise Linux 7"
REDHAT_BUGZILLA_PRODUCT_VERSION=7.6
REDHAT_SUPPORT_PRODUCT="Red Hat Enterprise Linux"
REDHAT_SUPPORT_PRODUCT_VERSION="7.6"
[root@sebil ~]#






[root@rhel74 ~]# cat /etc/redhat-release
Red Hat Enterprise Linux Server release 7.4 (Maipo)
[root@rhel74 ~]# cat /etc/os-release
NAME="Red Hat Enterprise Linux Server"
VERSION="7.4 (Maipo)"
ID="rhel"
ID_LIKE="fedora"
VARIANT="Server"
VARIANT_ID="server"
VERSION_ID="7.4"
PRETTY_NAME="Red Hat Enterprise Linux Server 7.4 (Maipo)"
ANSI_COLOR="0;31"
CPE_NAME="cpe:/o:redhat:enterprise_linux:7.4:GA:server"
HOME_URL="https://www.redhat.com/"
BUG_REPORT_URL="https://bugzilla.redhat.com/"

REDHAT_BUGZILLA_PRODUCT="Red Hat Enterprise Linux 7"
REDHAT_BUGZILLA_PRODUCT_VERSION=7.4
REDHAT_SUPPORT_PRODUCT="Red Hat Enterprise Linux"
REDHAT_SUPPORT_PRODUCT_VERSION="7.4"
[root@rhel74 ~]#

22 Ocak 2019 Salı

Birazda GPFS ile oynayalım.

gpfs ile oynayayım dedim ve bir gpfs kurduktan sonra, mevcut dosya sisteminden disk çıkartıp ekledim.

Açıkcası dosya sisteminden bir diski silerken, bu disk üzerindeki datayı, diğer disklere taşıması, dosya sistemini küçülttükden sonrada diski kullanım dışı bırakması hoşuma gitti. Bu kadar basit olacağını düşünmemiştim.

Özetle gpfs te endişe duymadan  istediğiniz gibi disklerle oynayabilirsiniz.


[root@gpfs01 ~]# mmlsnsd

 File system   Disk name    NSD servers
---------------------------------------------------------------------------
 shared        nsd1         gpfs01.localdomain.org,gpfs02.localdomain.org,gpfs03.localdomain.org
 shared        nsd2         gpfs01.localdomain.org,gpfs02.localdomain.org,gpfs03.localdomain.org

[root@gpfs01 ~]# mmdeldisk shared nsd2
Deleting disks ...
Scanning file system metadata, phase 1 ...
 100 % complete on Tue Jan 22 12:55:13 2019
Scan completed successfully.
Scanning file system metadata, phase 2 ...
 100 % complete on Tue Jan 22 12:55:13 2019
Scan completed successfully.
Scanning file system metadata, phase 3 ...
 100 % complete on Tue Jan 22 12:55:13 2019
Scan completed successfully.
Scanning file system metadata, phase 4 ...
 100 % complete on Tue Jan 22 12:55:13 2019
Scan completed successfully.
Scanning user file metadata ...
   0.02 % complete on Tue Jan 22 12:55:49 2019  (    491520 inodes with total       4189 MB data processed)
 100.00 % complete on Tue Jan 22 12:55:49 2019  (    491520 inodes with total       4189 MB data processed)
Scan completed successfully.
Checking Allocation Map for storage pool system
tsdeldisk completed.
mmdeldisk: Propagating the cluster configuration data to all
  affected nodes.  This is an asynchronous process.
[root@gpfs01 ~]# mmlsnsd

 File system   Disk name    NSD servers
---------------------------------------------------------------------------
 shared        nsd1         gpfs01.localdomain.org,gpfs02.localdomain.org,gpfs03.localdomain.org
 (free disk)   nsd2         gpfs01.localdomain.org,gpfs02.localdomain.org,gpfs03.localdomain.org

[root@gpfs01 ~]#



[root@gpfs01 ~]# mmlsnsd -X -d nsd2

 Disk name    NSD volume ID      Device         Devtype  Node name                Remarks
---------------------------------------------------------------------------------------------------
 nsd2         0A220B165C3F085C   /dev/vdc       generic  gpfs01.localdomain.org   server node
 nsd2         0A220B165C3F085C   /dev/vdc       generic  gpfs02.localdomain.org   server node
 nsd2         0A220B165C3F085C   /dev/vdc       generic  gpfs03.localdomain.org   server node


[root@gpfs01 ~]# mmdelnsd nsd2
mmdelnsd: Processing disk nsd2
mmdelnsd: Propagating the cluster configuration data to all
  affected nodes.  This is an asynchronous process.

[root@gpfs01 ~]#


[root@gpfs01 ~]# mmlsnsd

 File system   Disk name    NSD servers
---------------------------------------------------------------------------
 shared        nsd1         gpfs01.localdomain.org,gpfs02.localdomain.org,gpfs03.localdomain.org

[root@gpfs01 ~]#


[root@gpfs01 ~]# mmlsdisk shared
disk         driver   sector     failure holds    holds                            storage
name         type       size       group metadata data  status        availability pool
------------ -------- ------ ----------- -------- ----- ------------- ------------ ------------
nsd1         nsd         512           1 Yes      Yes   ready         up           system
[root@gpfs01 ~]#



[root@gpfs01 ~]# mmcrnsd -F disk2.lst
mmcrnsd: Processing disk vdc
mmcrnsd: Processing disk vdd
mmcrnsd: Propagating the cluster configuration data to all
  affected nodes.  This is an asynchronous process.
[root@gpfs01 ~]# cat disk2.lst
%nsd: device=vdc
nsd=nsd2
servers=gpfs01.localdomain.org,gpfs02.localdomain.org,gpfs03.localdomain.org
usage=dataOnly

%nsd: device=vdd
nsd=nsd3
servers=gpfs01.localdomain.org,gpfs02.localdomain.org,gpfs03.localdomain.org
usage=metadataOnly



[root@gpfs01 ~]# mmlsnsd

 File system   Disk name    NSD servers
---------------------------------------------------------------------------
 shared        nsd1         gpfs01.localdomain.org,gpfs02.localdomain.org,gpfs03.localdomain.org
 (free disk)   nsd2         gpfs01.localdomain.org,gpfs02.localdomain.org,gpfs03.localdomain.org
 (free disk)   nsd3         gpfs01.localdomain.org,gpfs02.localdomain.org,gpfs03.localdomain.org

[root@gpfs01 ~]#


[root@gpfs01 ~]# mmadddisk shared nsd2

The following disks of shared will be formatted on node gpfs03.localdomain.org:
    nsd2: size 20480 MB
Extending Allocation Map
Checking Allocation Map for storage pool system
Completed adding disks to file system shared.
mmadddisk: Propagating the cluster configuration data to all
  affected nodes.  This is an asynchronous process.
[root@gpfs01 ~]#


[root@gpfs01 ~]# mmrestripefs shared -b
Scanning file system metadata, phase 1 ...
  53 % complete on Tue Jan 22 13:23:47 2019
 100 % complete on Tue Jan 22 13:23:51 2019
Scan completed successfully.
Scanning file system metadata, phase 2 ...
 100 % complete on Tue Jan 22 13:23:51 2019
Scan completed successfully.
Scanning file system metadata, phase 3 ...
 100 % complete on Tue Jan 22 13:23:51 2019
Scan completed successfully.
Scanning file system metadata, phase 4 ...
 100 % complete on Tue Jan 22 13:23:52 2019
Scan completed successfully.
Scanning user file metadata ...
  21.84 % complete on Tue Jan 22 13:24:55 2019  (    491520 inodes with total       4193 MB data processed)
  42.71 % complete on Tue Jan 22 13:25:27 2019  (    491520 inodes with total       8201 MB data processed)
 100.00 % complete on Tue Jan 22 13:25:38 2019  (    491520 inodes with total      19189 MB data processed)
Scan completed successfully.
[root@gpfs01 ~]#


[root@gpfs02 shared]#  mmlsnsd -a -L

 File system   Disk name    NSD volume ID      NSD servers
---------------------------------------------------------------------------------------------
 shared        nsd1         0A220B165C3F0856   gpfs01.localdomain.org,gpfs02.localdomain.org,gpfs03.localdomain.org
 shared        nsd2         0A220B165C46EC7D   gpfs01.localdomain.org,gpfs02.localdomain.org,gpfs03.localdomain.org
 shared        nsd3         0A220B165C46EC83   gpfs01.localdomain.org,gpfs02.localdomain.org,gpfs03.localdomain.org

[root@gpfs02 shared]#  mmlsnsd -X -d nsd1

 Disk name    NSD volume ID      Device         Devtype  Node name                Remarks
---------------------------------------------------------------------------------------------------
 nsd1         0A220B165C3F0856   /dev/vdb       generic  gpfs01.localdomain.org   server node
 nsd1         0A220B165C3F0856   /dev/vdb       generic  gpfs02.localdomain.org   server node
 nsd1         0A220B165C3F0856   /dev/vdb       generic  gpfs03.localdomain.org   server node

[root@gpfs02 shared]#  mmlsnsd -X -d nsd2

 Disk name    NSD volume ID      Device         Devtype  Node name                Remarks
---------------------------------------------------------------------------------------------------
 nsd2         0A220B165C46EC7D   /dev/vdc       generic  gpfs01.localdomain.org   server node
 nsd2         0A220B165C46EC7D   /dev/vdc       generic  gpfs02.localdomain.org   server node
 nsd2         0A220B165C46EC7D   /dev/vdc       generic  gpfs03.localdomain.org   server node

[root@gpfs02 shared]#  mmlsnsd -X -d nsd3

 Disk name    NSD volume ID      Device         Devtype  Node name                Remarks
---------------------------------------------------------------------------------------------------
 nsd3         0A220B165C46EC83   /dev/vdd       generic  gpfs01.localdomain.org   server node
 nsd3         0A220B165C46EC83   /dev/vdd       generic  gpfs02.localdomain.org   server node
 nsd3         0A220B165C46EC83   /dev/vdd       generic  gpfs03.localdomain.org   server node

[root@gpfs02 shared]#
[root@gpfs02 shared]# mmlsdisk shared
disk         driver   sector     failure holds    holds                            storage
name         type       size       group metadata data  status        availability pool
------------ -------- ------ ----------- -------- ----- ------------- ------------ ------------
nsd1         nsd         512           1 Yes      Yes   ready         up           system
nsd2         nsd         512          -1 Yes      Yes   ready         up           system
nsd3         nsd         512          -1 Yes      Yes   ready         up           system
[root@gpfs02 shared]#


[root@gpfs02 shared]# df -h
Filesystem             Size  Used Avail Use% Mounted on
/dev/mapper/rhel-root   48G  7.4G   41G  16% /
devtmpfs               8.0G     0  8.0G   0% /dev
tmpfs                  8.0G     0  8.0G   0% /dev/shm
tmpfs                  8.0G   26M  8.0G   1% /run
tmpfs                  8.0G     0  8.0G   0% /sys/fs/cgroup
/dev/vda2             1014M  209M  806M  21% /boot
/dev/loop0             3.2G  3.2G     0 100% /var/repo
tmpfs                  1.6G     0  1.6G   0% /run/user/0
shared                  60G   19G   42G  32% /shared
[root@gpfs02 shared]#



16 Ocak 2019 Çarşamba

Red Hat (CentOS) kurulum dvd sini local repo olarak kullanmak

Öncelikle dvd yansısını sunucu üzerine kopyalıyoruz.
Kopyalama işlemi bittikten sonra fstab içerisine aşağıdaki satır ekleniyor.

/sw/rhel-server-7.6-ppc64le-dvd.iso /var/repo   auto loop,ro

mkdir /var/repo
komutuyla repo dizini oluşturulur ve 'mount -a' komutuyla sisteme bağlanır.

sonrasında yuma  /var/repo dizinin yerel depo olarak tanıtırız.
Bu işlem için /etc/yum.repos.d/ dizini altında local.repo dosyası oluşturmamız yeterli.
Dosyanın içeriği aşağıda.

[root@gpfs01 ~]# cat  /etc/yum.repos.d/local.repo
[rhel-local]
name=RedHat 7.6 local repo
baseurl=file:///var/repo
enabled=1
gpgcheck=0
 

[root@gpfs01 ~]#

işlemlerin düzgün yapıldığından emin olmak için 'yum repolist' komutuyla kontrol ettiğimizde;

rhel-local                                               RedHat 7.6 local repo                                                  3739

görüyorsak işlem sorunsuz tamamlanmış demektir.




15 Ocak 2019 Salı

Merkezi loglama rsyslog.

En basit şekliyle merkezi loglama için rsyslog kullanabiliriz.
Bu çalışmada merkezi log sunucusu olarak "Oracle Linux Server release 7.6" kullandım.
oel kurulduktan sonra sistem güncelledi ve rsyslog ayarlarında  tcp ve udp  modulleri aktifleştirildi.
Diğer sunuculardan log alması için tcp/udp modülünün aktifleştirilmesi yeterlidir.


# Provides UDP syslog reception
$ModLoad imudp
$UDPServerRun 514

# Provides TCP syslog reception
$ModLoad imtcp
$InputTCPServerRun 514


İlave olarak her sunucumuzdan gelen logları ayrı ayrı dosyalara yazabilmek için aşağıdaki gibi bir template oluşturarak kullanıyoruz.

$template LogFile,"/var/log/%HOSTNAME%/%programname%.log"
*.* ?LogFile


Sizler kendi isteğinize göre gelen logları istediğiniz yere yazdırabilirsiniz.

Son adım olarak, güvenlik duvarına, hangi sunuculardan log alınmasına izin veriyoruz.

firewall-cmd --permanent --zone=public --add-rich-rule='rule family="ipv4" source address="172.16.0.123/32" port protocol="tcp" port="514" accept'
firewall-cmd --permanent --zone=public --add-rich-rule='rule family="ipv4" source address="172.16.0.123/32" port protocol="udp" port="514" accept'


Kural yazıldıktan sonra  uygulanması için;

 firewall-cmd --reload
veya
systemctl restart firewalld
ile güvenlik kuralımızı etkinleşitiriz. Artık sunucumuz 172.16.0.123 ip nosundan gelen syslog mesajlarını alarak, kayıt eder.


172.16.0.123 ip adresli sunucuya giderek rsyslog.conf dosyamıza

*.* @@172.16.0.253:514ekleyerek rsyslog servisini yeniden başlattığımızda tüm loglar log sunucumuza gönderilir.
Sizler tüm loglar yerine belli loglarıda gönderebilirsiniz. Bu size kalmış.


rsyslog'de varsayılan olarak yetkilendirme olmadığından güvenlik duvarının aktif olması ve sınırlama yapılmasını tavsiye ederim.


10 Ocak 2019 Perşembe

ntp sunucusunu güvenli hale getirme

linux sunucumuzu ntp olarak yapılandırdığımızda, ntp servisinden kaynaklı güvenlik açığı çıkmaktadır.
Bunun önlemenin şu anki tek yolu, ntp sorgularını sınırlamaktır. Aşağıda test edilmiş bir ntp.conf dosyası bulunuyor.

[root@dns01 ~]# cat /etc/ntp.conf
driftfile /var/lib/ntp/drift

restrict -4 default kod notrap nomodify nopeer noquery
restrict -6 default kod notrap nomodify nopeer noquery


restrict 10.254.254.0      mask 255.255.0.0    notrap nomodify nopeer noquery
restrict 127.0.0.1
restrict ::1

server  0.rhel.pool.ntp.org  iburst

includefile /etc/ntp/crypto/pw
keys /etc/ntp/keys

# Specify the key identifiers which are trusted.
trustedkey 14570
requestkey 14570
controlkey 14570

# Enable writing of statistics records.
#statistics clockstats cryptostats loopstats peerstats

# Disable the monitoring facility to prevent amplification attacks using ntpdc
# monlist command when default restrict does not include the noquery flag. See
# CVE-2013-5211 for more details.
# Note: Monitoring will not be disabled with the limited restriction flag.
disable monitor
[root@dns01 ~]#

İşin püf noktası, varsayılan olarak sorgulamaları sınırlandırmak, izin verilen networkten gelen sorgulamalarıda sınırlandırarak gerekli izin vermek. Şayet belli bir sunucuya daha fazla yetki vermek gerekiyorsa, o sunucuya güvenli anahtar ile yetkilendirme(key authentication) yaparak ona özel restrict kuralı ayarlanması gerekir.

Linuxle eğlenceye devam :)


8 Ocak 2019 Salı

RedHat 7.x, Oracle Enterprise Linux 7.x, CentOS 7.x de varsayılan kerneli değiştirmek

Öncelikle sisteme yüklenmiş mevcut kernelleri listeleriz;


[root@oradb01 ~]# awk -F\' '/menuentry / {print $2}' /etc/grub2.cfg
Oracle Linux Server
Oracle Linux Server (4.1.12-124.22.2.el7uek.x86_64 with Unbreakable Enterprise Kernel) 7.6
Oracle Linux Server (4.1.12-124.22.2.el7uek.x86_64 with Unbreakable Enterprise Kernel) 7.6 (recovery mode)
Oracle Linux Server (4.1.12-61.1.18.el7uek.x86_64 with Unbreakable Enterprise Kernel) 7.6
Oracle Linux Server (4.1.12-61.1.18.el7uek.x86_64 with Unbreakable Enterprise Kernel) 7.6 (recovery mode)
Oracle Linux Server (3.10.0-957.0.el7.x86_64 with Linux) 7.6
Oracle Linux Server (3.10.0-957.0.el7.x86_64 with Linux) 7.6 (recovery mode)
Oracle Linux Server (3.10.0-957.el7.x86_64 with Linux) 7.6
Oracle Linux Server (3.10.0-957.el7.x86_64 with Linux) 7.6 (recovery mode)
Oracle Linux Server (3.10.0-514.el7.x86_64 with Linux) 7.6
Oracle Linux Server (3.10.0-514.el7.x86_64 with Linux) 7.6 (recovery mode)
Oracle Linux Server (0-rescue-e541e1b9900e4202ae5091ee11df9604 with Linux) 7.6
Oracle Linux Server (0-rescue-e541e1b9900e4202ae5091ee11df9604 with Linux) 7.6 (recovery mode)
[root@oradb01 ~]#













Sonrasında istediğimiz kerneli ayarlarız;

 grub2-set-default "Oracle Linux Server (3.10.0-514.el7.x86_64 with Linux) 7.6"


ve grub2 conf dosyasını tekrardan oluştururuz.


# grub2-mkconfig -o /etc/grub2.cfg

redhat cloud-init

Sonunda bende redhat cloud image dedikleri disk yansısı  (rhel-server-7.6-ppc64le-kvm.qcow2 )  ile sanal sistem kurmaya başladım. İlk sorun ip adresinin  ayarlanmasında oldu. Benim gibi yeni başlayacak arkadaşlara, ip adresi konusunda yaşayacağı sıkıntıyı daha kolay çözmeleri için tecrübemi paylaşayım dedim.

Ağ kartına ip atanmasına karşılık,  açılış esnasında ağ kartı devreye girmiyordu.
Nedeni ise ağ kartı ayar dosyasında  (ifcfg-eth0)  ONBOOT=no olması.
Bu sorunu ONBOOT=no değerini yes yaparak çözdüm.

temel meta-data dosyası;

p8-800002-22c:~/cloud-kvm # cat meta-data
instance-id: rhel76kvm
local-hostname: rhel76kvm.local
network-interfaces: |
  iface eth0 inet static
  address 10.34.11.129
  network 10.34.0.0
  netmask 255.255.0.0
  broadcast 10.34.255.255
  gateway 10.34.254.236
p8-800002-22c:~/cloud-kvm #



user-data dosyasının içeriği;

p8-800002-22c:~/cloud-kvm # cat user-data

#cloud-config
user: remzi
password: atomic
chpasswd:
  list: |
    root:root
    remzi:remzi
  expire: False
ssh_pwauth: True
ssh_authorized_keys:
  - ssh-rsa ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAABAQC8KqFyN4B4dqznUtqctdCY+0tdSnehLqeOM49DcyinW0egZbuizARF72Dpl1TmRVN4PUAcy8S7JxPow4aOrpDSAOUPQKcMabt66WNiBUOkr5hpVujtwR4XlzzIm8ySysTcWNnsv8oZEQuLhX9jCdj6n/v3V6ZBBJX7yTHhNflUXYBpFIM/Gh08tSH31761ZqLlPqX43+KWYI7v37dVqrAwE/a9FSQgCJ0pUiYRodbrvLqnIDng682UoeTzrxea0QY8rYRxYGAQLPemLexFlA5vKal7tyiaGHIQmtgJGchAe7iss6k22vq1WYT4bE8+M/l3mb5lXxMfzx19NhftMzxv remzi@p8-800002-22c

bootcmd:
  - set -x;sed -i 's/ONBOOT=no/ONBOOT=yes/g' /etc/sysconfig/network-scripts/ifcfg-eth0
  - ifdown eth0
  - ifup eth0

p8-800002-22c:~/cloud-kvm #

mkisofs -output cloud-init.iso -volid cidata -joliet -rock user-data meta-data

cloud-init.iso cdrom yansısını, vm ilk başlattığımızda görünüyor olması gerekiyor.
Sistem disk yansısından(rhel-server-7.6-ppc64le-kvm.qcow2) başlıyor ve gerekli ayar dosyalarını cdrom yansısından okuyarak, kendini ayarlıyor.

Bu sorunun belki daha basit bir yöntemi vardı, fazla araştırmadım. Daha basit çözümünü bilen arkadaşlar bilgilerini paylaşabilir. :)

Detaylı bilgi için RedHat sayfasına;
https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux_atomic_host/7/html-single/installation_and_configuration_guide/
bakılabilir.

Linux ile eyu eğlenceler.

6 Ocak 2019 Pazar

Dosya paylaşım ortamları

Bir dosyayı birden fazla kişi arasında hızlı bir şekilde paylaşmak ihtiyacı duyduğumuzda, resilio hızlı ve güzel bir çözüm olabilir.

https://www.resilio.com

Beğendiğim temel özelliği, hemen hemen tüm platformlarda zahmetsiz çalışması ve kullanım kolaylığı oldu.




7 Kasım 2018 Çarşamba

cobbler'e yeni bir sunucu tanımlamak


spacewalk sunucusu üzerinden networkten kurulum için cobbler kullanılıyor.
cobbler'e yeni bir sunucu tanıtmak için aşağıdaki scripti kullanıyorum.


[root@spacewalk ~]# cat sunucu-ekle.sh
#!/bin/bash

# sunucular biostan, ikinci interfaceden boot olacak sekilde ayarlanmali


hostname="oel6-test2.oel.local"

int1="eth0"
mac1="00:01:02:03:42:BD"
ipaddr1="192.168.254.152"

int2="eth1"
mac2="00:01:02:03:2A:D4"
ipaddr2="192.168.11.152"

profile="oel6kickstart:1:local"
cobbler system add --name=$hostname --hostname=$hostname --interface=$int1 --mac=$mac1 --ip-address=$ipaddr1 --interface=$int2 --mac=$mac2 --ip-address=$ipaddr2 --profile=$profile

cobbler sync
systemc restart dhcpd
systemctl restart named

cobbler system list
[root@spacewalk ~]#

Tabiki cobblerin ayarlanmış olması şart. cobbler için en azından /etc/cobbler dizini altındaki  aşağıdaki dosyaları düzenlemeniz gerekmektedir. Aksi durumda dhcp/dns tanımlamaları aksaklığa neden olur.

zone.template
named.template
dhcp.template
settings




5 Kasım 2018 Pazartesi

Birazda bisiklet reklamı

Merhabalar,

Bu gün kişiye özel bisiklet yapımıyla ilgili reklam yapayım dedim.

Bisiklet sevenlerdenseniz, aşağıdaki linki ziyaret etmeniz iyi olur.

https://soulrider.bike/tr_TR/


Belki kendizine özel bir bisiklet istersiniz. :)


25 Ekim 2018 Perşembe

rsync yi ssh üzerinden kullanırken port degişikliği

rsync yi ssh üzerinden kullandığımızda default port olarak 22 kullanır. Bunu değiştirmenin en kolay yolu, rsync'yi çalıştıran kullanıcının .ssh dizini altında config dosyası oluşturarak içinde port tanımlamadır.



sles15:~ # cat .ssh/config
Host yedek
    Port 43288
    hostname yedek.akyuz.tech
    user root
sles15:~ #


rsync -auvh -e ssh yedek:/data/ /mnt/yedek/


Yok illa ben config dosyası oluşturmam diyenlerdenseniz, aşağıdaki gibide kullanabilirsiniz.

rsync -auvh -e "ssh -p 43288"  yedek:/data/ /mnt/yedek/

24 Ekim 2018 Çarşamba

bir lunun linux sistemden kaldırılması

multipath ile kullanılan bir luna ihtiyaç kalmadığında sistemden kaldırılması;

Bir disk ünitesinden verilen bir diski(lun) linux sistemlerinden pat diye kaldırdığımızda bir sürü hata mesajları alırız. ihtiyacım kalmayan bir diski sistemden düzgün bir şekilde kaldırmak için öncelikle multipath den kaldırıp, arkadısndan disk leri sistemden silmemiz gerekir.
Aşağıdaki script bu işlem için bir örnektir.

###############################ÖRNEK#########################################

#!/bin/bash
tmpf="/tmp/deldevlst.txt"
if (( $# > 0 ))
then
        export mpathdev=$1

dev=/dev/mapper/$mpathdev
if [ -e $dev ]
then
        multipath -ll $mpathdev |egrep -v "status=active|size|status=enabled|$mpathdev"|sed 's/| `-//g'|sed 's/`-//g' |awk '{print $2}' > $tmpf
        multipath -f $mpathdev && echo $mpathdev silindi..
        for devname in `cat $tmpf`
        do
        echo 1 > /sys/block/$devname/device/delete  && echo $devname Silindi..
        done

        echo $mpathdev baglantisini disk unitesinden iptal edebilirsiniz.
else
echo $dev bulunamadi
fi

else
        echo Kullanim sekli: $0 multipath-name
fi

 ##################################ÖRNEK########################################

kullanımdan kaldırılacak disk veya diskler lvm için pv olarak tanımlı ise bu işlemlerden önce pvremove ile lvm özelliğide kaldırılmalı.

2 Ekim 2018 Salı

RHEL 7 tabanlı sistemlerde initramfs dosyasının açılması

Mevcut initramfs dosyasını incelememiz gerektiğinde, aşağıdaki gibi initramfs açarak inceleyebiliriz.


[root@rhel7 tmp]# mkdir initramfs-extras
[root@rhel7 tmp]# cd initramfs-extras/
[root@rhel7 initramfs-extras]# cp /boot/initramfs-3.10.0-862.el7.x86_64.img .
[root@rhel7 initramfs-extras]# mv initramfs-3.10.0-862.el7.x86_64.img initramfs-3.10.0-862.el7.x86_64.img.gz
[root@rhel7 initramfs-extras]# gunzip initramfs-3.10.0-862.el7.x86_64.img.gz
[root@rhel7 initramfs-extras]# cpio -i < initramfs-3.10.0-862.el7.x86_64.img
126539 blocks
[root@rhel7 initramfs-extras]# ls
bin  dev  etc  init  initramfs-3.10.0-862.el7.x86_64.img  lib  lib64  proc  root  run  sbin  shutdown  sys  sysroot  tmp  usr  var
[root@rhel7 initramfs-extras]#

28 Eylül 2018 Cuma

Eski şıkıştırılmış sistem loglarını incelemek

Linux sistemlerde eski log dosyaları fazla yer kaplamaması için, aşağıdaki gibi otomatik olarak şıkıştırılır.

fail2ban.log        kern.log.2.gz      syslog.1             Xorg.0.log.old
fail2ban.log.1      kern.log.3.gz      syslog.2.gz          xrdp-sesman.log
fail2ban.log.2.gz   kern.log.4.gz      syslog.3.gz

Bunları incelemiz gerektiğinde gzip ile açmak yerine zless aracını kullanabiliriz.

$ zless fail2ban.log.2.gz


 Zless  is a filter which allows examination of compressed or plain text
       files one screenful at a time on  a  soft-copy  terminal.   It  is  the
       equivalent of setting the environment variable LESSOPEN to '|gzip -cdfq
       --   %s',   and   the    environment    variable    LESSMETACHARS    to
       '<space><tab><newline>;*?"()<>[|&^`#\$%=~',   and  then  running  less.
       However, enough people seem to think  that  having  the  command  zless
       available is important to be worth providing it.

1 Eylül 2018 Cumartesi

disklerin uzaktaki makineye 1-1 kopyalanması

Günün birinde bir sunucu taşımak zorunda kalır, fakat yeniden kurulum vs. ile uğraşmak istemiyorsanız, eski ve yeni yeni sunucuları live linux ile (tercihim ubuntu ) boot edip,


kaynak sunucu üzerinde;

dd if=/dev/sda | ssh root@1.2.3.4  "dd of=/dev/vda"

ile diski bire bir kopylayabilirsiniz.

1.2.3.4 yeni sunucunun ip adresi

vda yeni sunucudaki disk, sda eski sunucudaki disk

eyu eğlenceler

6 Ağustos 2018 Pazartesi

selinux - nginx


sudo cat /var/log/audit/audit.log | grep nginx | grep denied | sudo audit2allow -M nginx


cat nginx.te

module nginx 1.0;

require {
    type unlabeled_t;
    type httpd_t;
    class dir read;
    class file { getattr read };
}

#============= httpd_t ==============

#!!!! This avc is allowed in the current policy
allow httpd_t unlabeled_t:dir read;
allow httpd_t unlabeled_t:file read;

#!!!! This avc is allowed in the current policy
allow httpd_t unlabeled_t:file getattr;



semodule -i nginx.pp

systemctl restart nginx

17 Nisan 2018 Salı

ssh kullanıcı ayarlarım

linux sistemimdeki .ssh/config dosyasının temel satırları



Host *
ControlMaster                        auto
ControlPath                             ~/.ssh/sockets/%r@%h-%p
ControlPersist                        600
StrictHostKeyChecking         no


host  mynode
        hostname                          mynode.akyuz.tech
        user                                   root
        ForwardAgent                  yes
        ForwardX11                     yes
        TCPKeepAlive                  yes
        ConnectTimeout              15
        ConnectionAttempts        2
        Port                                  22
        DynamicForward            8989
        LocalForward                 127.0.0.1:5901 127.0.0.1:5901

30 Mart 2018 Cuma

RedHat reposunu yedeklemek

Bu gün boş boş otururken, redhat reposunu yedekleyen bir script hazırlayayım dedim.  rhel reposunu yansilamak isteyenler, kendilerine uygun değişikliği yaparak kullanabilirler.

Tüm repoları indirebilmek için, rhn den repoları aktifleştirmek gerektiğinide unutmamak lazım. :)

Eyu eğlenceler.


Dosya kontrolü

Bir Dosyaya ne zaman erişilmiş, ne zaman değiştirilim gibi bilgileri stat komutu ile öğrenebiliriz.




29 Mart 2018 Perşembe

multipathd

 
 1. Multipath paketi yüklü olup olmadığı kontrol edilerek, yüklü değilse yüklenir.

    rpm -q device-mapper-multipath

    rpm -q device-mapper
   
    yum install device-mapper

    yum install device-mapper-multipath


    yum install device-mapper-multipath

    mpathconf --enable-with_multipathd y --with_chkconfig y

    mpathconf


 2. Temel config dosyası hazırlanır;
   
   cp /usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf.defaults /etc/multipath.conf


 3.  wwid leri multipath.conf dosyasına ilave edilirek, alias tanımlaması yapılır.
   
    Bunları /etc/multipath dizini altındaki dosyalardan alabileceğimiz gibi
 
    # scsi_id -g -u /dev/sdb

    komutuylada alabiliriz. (/dev/sdb değişebileceğini unutmalayım!)

 En basit multipath.conf dosyasına örnek;

    defaults {

            user_friendly_names yes

            path_grouping_policy    failover

            failback manual

            no_path_retry fail

            flush_on_last_del yes

            queue_without_daemon no

            path_checker tur

    }

    blacklist {

            devnode "^asm/*"

            devnode "ofsctl"

            devnode "xvd*"

           wwid SATA_SEAGATE_ST950019XF0F2TK_

          wwid SATA_SEAGATE_ST950019XF0F37S_


          wwid "*"

     }


    blacklist_exceptions {

             wwid "36001438009b044d90000900000780000"

     }

    multipaths {

            multipath {

                    wwid                    "36001438009b044d90000900000780000"

                    alias                   asm1

          }

    }


 4. Multipath servisi başlatılır.

 service multipathd start

 chkconfig multipathd on

 5. "multipath -ll" , fdisk, dmesg komutlarıyla kontrol yapılır.

X11 forwarding request failed on channel 0

X11 forwarding request failed on channel 0
hatası alınıyorsa, sshd_config aşağıdaki satır ilave atılabilir.

 X11UseLocalhost no

AddressFamily inet
#X11UseLocalhost no




debug1: Remote: No xauth program; cannot forward with spoofing.
X11 forwarding request failed on channel 0


hatası alındığında  xauth yüklenmesi gerekir.
yum install xorg-x11-xauth






debug:

/usr/sbin/sshd -p 22 -D -d -e

Mutt ile ekli dosya gonderme ve from degistirme


terminalden veya cron ile mesaj göndermemiz gerekiyor ve bu mesajin from kismini degistirerek ilave dosya eklemek istiyorsak;

~/.muttrc dosyasina asagidaki gibi satirlar ilave edilir.
---------------------------------------------
set use_from
my_hdr From: destek@destek.com
---------------------------------------------

/usr/bin/mutt -s \"Mesaj konusu\" musteri@musteri.com -a ilave_edilecek _dosya.tgz  < mesaj_icerigi.txt



Basit şekilde diskleri bölümleyerek, kullanıma almak

Özellikle 4TB ve büyük diskleri bölümlemek için parted kullanabiliriz.

kullanımı oldukça basit, öncelikle gpt etiketi atıyoruz.

                         parted /dev/sda mklabel gpt

sonrasında yeni bölüm oluşturuyoruz.

parted -a optimal /dev/sda mkpart primary 0% 4096MB

parted -a optimal /dev/sda mkpart primary 0% 100%


Sonrasında formatlama kontrol


2
(parted) align-check optimal P
P aligned
# cat /sys/block/sdb/queue/optimal_io_size
1048576
# cat /sys/block/sdb/queue/minimum_io_size
262144
# cat /sys/block/sdb/alignment_offset
0
# cat /sys/block/sdb/queue/physical_block_size
512


cat /sys/block/sdx/queue/max_sectors_kb

echo 1024 /sys/block/sdx/queue/max_sectors_kb



parted -s /dev/sdx unit % print

parted -s /dev/sdb rm 1

parted -s /dev/sdx -- mklabel gpt mkpart primary
 
yeni oluşturulan bölümü lvm olarak kullanacaksak: 

 
parted    /dev/sdx set 1 lvm on

parted -s /dev/sdx unit % print

/sbin/kpartx -a /dev/sdx




parted -s /dev/sdb print

parted -s /dev/sdb mklabel gpt

parted -s /dev/sdb mkpart primary 0% 100% 
 
parted -s /dev/sdb set 1 lvm on
 
parted -s /dev/sdb print


multipath -f mpath20

multipath -v2


ilave disk bölümü oluşturmak;


Linux kernel kazalarında, sistemin yeniden başlatılması

Linux sistemimizde beklenmeyen bir aksaklık olur ve kernel paniklerse, sistemin otomatik olarak yeniden başlatmak için kernel.panic parametresini kullanırız.

Örnek;

sysctl.conf içerisine;
                        kernel.panic = 30
eklediğimizde panik durumlarından 30 saniye sonra sistem yeniden başlatılacaktır. 

7 Şubat 2018 Çarşamba

Linux tabanlı sistemlerde hafıza ( ram ) kontrolu ( free )

Linux sistemlerinde hafıza kullanımı kontrol ile  ilgili olarak, genellikle free komutu kontrol ederiz.
Fakat bu kontrol eski ve güncel olmayan sistemlerde, yalnış algılamamıza neden oluyor.

Red Hat 6.x/5.X sistemlerinde aşağıdakilerini görürsünüz.


Gerçekte kullanılabilir sistem hafızamız ise  free + buffers + cached
Özetle eski sistemlered Used  %100  ve cache de %95 civarındaysa endişelenmeyin.
Sistem rama ihtiyaç olduğunda cached için kullanılan hafızayı hızlıca boşaltarak, serbest bırakır.
Hafızaya ihtiyaç  duyan uygulamada, serbest kalan hafızayı anında kullanır. Bir sıkıntı olmaz.
Şayet içiniz rahat olmaz ise kernel parametrelerinden vm.min_free_kbytes değerini artırabilirsiniz.
Bu değeri artırırken abartmaya gerek yok. Büyük hafızalı sistemlerde bile 512MB  yeterlidir.

Red Hat 7.x (Oracle veya CentOS 7.x lerde ise) bu yanılmayı düzeltmek için güncelleme yapılmış olup, free komutunun çıktısına ilave olarak kullanılabilir boş hafızayı gösteren available bölümü eklenmiştir. Used bölümündende cache/buff kullanımı çıkartılmıştır.




Özetle eski sistemlerde used, tam olarak used, free de tam olarak free anlamına gelmez.

Eski linux işletim  sistemin kullananlara tavsiyem, kullandıkları işletim sisteminin güncel sürümlerine veya uygulamalarının desteklediği en güncel sürüme geçmeleridir.

2 Şubat 2018 Cuma

slurmda kuyrukta bekleyen bir işi bir başka kuyruğa taşımak

Slurm kullanırken, kaynak yetersizliğinden beklemekte olan bir işi veya işleri, kaynağı olan başka bir kuyruğa taşımak istersek aşağıdaki scripti kullanabiliriz.

[root@headnode bin ]# cat movejob.sh
#/bin/bash
# 2018.02.02
# Remzi AKYUZ


if [ $# -lt 2 ]
then
        echo "Kullanim sekli $0 kullanici_adi yeni_kuyruk"
        exit 0
fi

user=$1
newq=$2

for i in $(squeue -u $user -h -t PD -o %i)
do
scontrol update jobid=$i partition=$newq
done



[root@headnode bin ]#


1 Şubat 2018 Perşembe

postfixte - giden mailleri relay üzerinden göndermek

Postfix yüklü sistemlerde giden mailleri, direk göndermek yerine,  relay sunucusunun üzerinden göndermek için relayhost tanımını kullanırız.


http://www.postfix.org/postconf.5.html#relayhost

/etc/postfix/main.cf:

# INTERNET OR INTRANET

# The relayhost parameter specifies the default host to send mail to
# when no entry is matched in the optional transport(5) table. When
# no relayhost is given, mail is routed directly to the destination.
#
# On an intranet, specify the organizational domain name. If your
# internal DNS uses no MX records, specify the name of the intranet
# gateway host instead.
#
# In the case of SMTP, specify a domain, host, host:port, [host]:port,
# [address] or [address]:port; the form [host] turns off MX lookups.
#
# If you're connected via UUCP, see also the default_transport parameter.
#
#relayhost = $mydomain
#relayhost = [gateway.my.domain]
#relayhost = [mailserver.isp.tld]
#relayhost = uucphost
#relayhost = [an.ip.add.ress]
 

Red Hat Enterprise Linux 5.x/6.x bonding ayarlamak

2009 yılındaki çalışma notumu biraz güncelleyerek burada da olsun istedim.

"RHEL 5.3 uzerinde bonding (Bonding Mode: fault-tolerance (active-backup) )" - Remzi AKYUZ - (2009-08-27 06:01:00)

1. /etc/modprobe.d/bonding.conf dosyasına

alias bond0 bonding
options bonding mode=1 miimon=100

satırı ilave edilir.

2. /etc/sysconfig/network-scripts/ifcfg-bond0 dosyası oluşturulur ve içerisine
DEVICE=bond0
TYPE=bond
ONBOOT=yes
HOTPLUG=no
BOOTPROTO=none
USERCTL=no
NM_CONTROLLED=no
BONDING_OPTS="mode=1 miimon=100"
BROADCAST=192.168.1.255
IPADDR=192.168.1.100
NETMASK=255.255.255.0
NETWORK=192.168.1.0


satırı ilave edilir.

3. bondingde kullanılacak ethernetler ayarlanır. eth1 ve eth2 yi kullanacağız

/etc/sysconfig/network-scripts/ifcfg-eth1 icerisinde aşağıdaki satırlar olmalı.

DEVICE=eth1
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no
HOTPLUG=no

/etc/sysconfig/network-scripts/ifcfg-eth2 içerisinde aşağıdaki satırlar

DEVICE=eth2
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no
HOTPLUG=no

4. Kontrol için
[root@localhost ~]# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.2.4 (January 28, 2008)

Bonding Mode: fault-tolerance (active-backup)
Primary Slave: None
Currently Active Slave: eth2
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: eth1
MII Status: down
Link Failure Count: 0
Permanent HW addr: 08:00:27:5c:33:61

Slave Interface: eth2
MII Status: up
Link Failure Count: 0
Permanent HW addr: 08:00:27:a5:24:6a

Son olarakta fiziksel olarak(kablolar sökülüp takılarak test edilir.
Loglardada aşağıdakileri görebiliriz.

#
grep bond /var/log/messages
Aug 27 05:33:55 localhost kernel: bonding: Warning: either miimon or arp_interval and arp_ip_target module parameters must be specified, otherwise bonding will not detect link failures! see bonding.txt for details.
Aug 27 05:33:55 localhost kernel: bonding: bond0: setting mode to active-backup (1).
Aug 27 05:33:55 localhost kernel: bonding: bond0: Setting MII monitoring interval to 100.
Aug 27 05:33:55 localhost kernel: bonding: bond0: Adding slave eth1.
Aug 27 05:33:55 localhost kernel: bonding: bond0: enslaving eth1 as a backup interface with a down link.
Aug 27 05:33:55 localhost kernel: bonding: bond0: Adding slave eth2.
Aug 27 05:33:55 localhost kernel: bonding: bond0: making interface eth2 the new active one.
Aug 27 05:33:55 localhost kernel: bonding: bond0: first active interface up!
Aug 27 05:33:55 localhost kernel: bonding: bond0: enslaving eth2 as an active interface with an up link.
Aug 27 05:37:18 localhost kernel: bonding: bond0: link status definitely up for interface eth1.
Aug 27 05:37:46 localhost kernel: bonding: bond0: link status definitely down for interface eth2, disabling it
Aug 27 05:37:46 localhost kernel: bonding: bond0: making interface eth1 the new active one.


Detaylı bilgi için: https://access.redhat.com/articles/172483

24 Ocak 2018 Çarşamba

Red Hat Enterprise linux 7.x / Oracle Enterprise Linux 7.x de ağ kartını yeniden isimlendirmek

1. grub ayarlamasi yapılır ve grub ayar dosyası yeniden oluşturulur.

[root@oradb-oel-7-node1 ~]# grep CMDLINE /etc/default/grub
# GRUB_CMDLINE_LINUX="rd.lvm.lv=ol/root rd.lvm.lv=ol/swap rhgb quiet"
GRUB_CMDLINE_LINUX="rd.lvm.lv=ol/root rd.lvm.lv=ol/swap rhgb  crashkernel=auto vconsole.keymap=us net.ifnames=0 biosdevname=0"
[root@oradb-oel-7-node1 ~]#

 grub2-mkconfig -o /boot/grub2/grub.cfg



2. /etc/sysconfig/network-scripts/ dizini içerisinde ağ arabirimimiz yeniden adlandırılır.

 mv ifcfg-enp0s3 ifcfg-lan0
[root@oradb-oel-7-node1 network-scripts]# cat ifcfg-lan0
TYPE=Ethernet
BOOTPROTO=none
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=no
IPV6_AUTOCONF=no
IPV6_DEFROUTE=no
IPV6_PEERDNS=no
IPV6_PEERROUTES=no
IPV6_FAILURE_FATAL=no
IPV6_ADDR_GEN_MODE=stable-privacy
NAME=lan0
DEVICE=lan0
ONBOOT=yes
IPADDR=192.168.253.71
PREFIX=24
GATEWAY=192.168.253.254
DNS1=192.168.253.254
DOMAIN=localdomain.org
HWADDR=08:00:27:75:5a:01


HWADDR satırı doğru olmalı.

Sonrasında sistemimiz yeniden başlattığımızda artık enp0s3 diye bir ağ kartı görmüyoruz.

21 Ocak 2018 Pazar

ubuntu 16.04 de ağ kartını yeniden isimlendirmek

Yeni linux sürümlerinde ağ kartlarının isme ethX yerine enp1d1S0 gibi  gelmekte.
Böyle uzun uzun akılda kalmayacak isimler olunca, niye yeniden isimlendirmeyelim?

Öncelikle  /etc/udev/rules.d/70-persistent-net.rules  dosyasını oluşturuyoruz.
Dosyanın içerisine ağ kartımızla ilgili bilgileri ve yeni ismini belirtiyoruz.

Örnek satır aşağıda;

SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="8c:ec:4b:02:be:c3", ATTR{dev_id}=="0x0", ATTR{type}=="1", KERNEL=="eth*", NAME="wan0"


mac adresi önemlidir. Tanım yaparken mac adresini doğru yazmamız gerekiyor.

Bundan sonra /etc/default/grub dosyasına aşağıdaki parametreleri ilave ediyor

# GRUB_CMDLINE_LINUX="net.ifnames=0 biosdevname=0"

sonrasında update-grub komutunu çalıştırıp sistemi yeniden başlatıyoruz.


Sistemimiz açıldığında artık yeni ismini kullanabiliriz.


root@ubuntu:~# ifconfig wan0
wan0      Link encap:Ethernet  HWaddr 8c:ec:4b:02:be:c3 
          inet addr:172.16.0.47  Bcast:172.16.0.255  Mask:255.255.255.0
          inet6 addr: fe80::ecb4:b8:16f2:4176/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:2740 errors:0 dropped:0 overruns:0 frame:0
          TX packets:2120 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:1734552 (1.7 MB)  TX bytes:325068 (325.0 KB)




root@ubuntu:~# grep  net.ifnames  /etc/default/grub; cat /etc/udev/rules.d/70-persistent-net.rules
GRUB_CMDLINE_LINUX="net.ifnames=0 biosdevname=0"
SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="8c:ec:4b:02:be:c3", ATTR{dev_id}=="0x0", ATTR{type}=="1", KERNEL=="eth*", NAME="wan0"


root@ubuntu:~# lsb_release -a
No LSB modules are available.
Distributor ID:    Ubuntu
Description:    Ubuntu 16.04.3 LTS
Release:    16.04
Codename:    xenial
root@ubuntu:~#

Linux ubuntu 4.13.0-26-generic #29~16.04.2-Ubuntu SMP Tue Jan 9 22:00:44 UTC 2018 x86_64 x86_64 x86_64 GNU/Linux


son olarak initramfs update etmek faydalı olur. Bunun için;

  # update-initramfs  -u

çalıştırmamız yeterli olur.

Bu aşamalardan sonra sistemi yeniden başlatabiliriz.

28 Kasım 2017 Salı

basit disk okuma/yazma testi (bonnie)

bonnie++ -c 16 -s 4196 -n 1 -r 128 -m db01 -x 2 -u root | bon_csv2html > /tmp/report.html

15 Kasım 2017 Çarşamba

IBM PowerVM - RedHat linux üzerine kurulması gereken paketler ve çalışması gereken servisler


PowerVM (LPAR) olarak Red Hat linux  7 yüklediğimizde, işletim sistemini izlemek ve tam olarak yönetebilmek(Hafıza(ram) artırımı/azaltımı, cpu core sayısı artırımı/azaltımı, sistem performanısı)  aşağıdaki paketleri yüklememiz gerekmektedir.

Öncelikle;
rpm -ivh http://public.dhe.ibm.com/software/server/POWER/Linux/yum/OSS/RHEL/7/ppc64/ibm-power-repo-3.0.0-17.noarch.rpm

yum update yaptıktan sonra

 yum install DynamicRM.ppc64  \
                    rsct.core.utils-3.2.2.3-17144.ppc64 \
                    rsct.core-3.2.2.3-17144.ppc64 \
                    rsct.opt.storagerm-3.2.2.3-17144.ppc64 \
                    rsct.basic-3.2.2.3-17144.ppc64 \
                    src-3.2.2.3-17144.ppc64 \
                    ibmPMLinux-3.5.1-1.ppc64
gerekli ibm araçlarını yüklüyoruz.



Yuklüme işleminden sonra  aşağıdaki komutu  çalıştırmamız gerekiyor.
                                                                                                              
# /usr/sbin/rsct/install/bin/recfgct

Şayet yukarıdaki komutu çalıştırmadığımızda bazı servisler aktif olmuyor ve HMC RedHat vm'i kontrol edemiyor.












Kurulumdan sonra; lssrc ile kontrol yaptığımızda aşağıdaki servisleri aktif olarak görmemiz gerekir.

[root@rhel7repo ~]# lssrc -g rsct_rm
Subsystem         Group            PID     Status
 IBM.MgmtDomainRM rsct_rm          4336    active
 IBM.ERRM         rsct_rm          4450    active
 IBM.AuditRM      rsct_rm          4482    active
 IBM.DRM          rsct_rm          4493    active
 IBM.HostRM       rsct_rm          4504    active
 IBM.SensorRM     rsct_rm          4626    active
[root@rhel7repo ~]#


systemctl ile de aşağıdaki servislerin düzgün çalışıp çalışmadığını kontrol edebiliriz.

ctrmc.service
ibm servisleri:
rtas_errd.service
srcmstr.service
PMLinux.service



Servislerde aksaklık olursa aşağıdaki linkleri inceleyebilirsiniz;

https://www.ibm.com/developerworks/community/blogs/talor/entry/restartrmc?lang=en
https://www.ibm.com/developerworks/community/blogs/cgaix/entry/february_24_2011_6_51_pm79?lang=en

Oracle Solaris 11.3 Support Repository Updates (SRU) Index (Doc ID 2045311.1)






In this Document

Main Content
References

Applies to:

Solaris Operating System - Version 11.2 and later
Information in this document applies to any platform.

Main Content

This document lists Service Alerts affecting each Oracle Solaris 11.3 Support Repository Update (SRU).
It will be updated as and when a Service Alert issue is found in an SRU

Oracle Solaris SRU Service Alert Issue
11.3.17.5.0 For Solaris 11.3.12.4.0 through 11.3.17.5.0, NFSv4 mount(1M) Commands Fail to Display Numerical Data - Doc ID 2240085.1  (Bug 24817001, Bug 24809831, Bug 24802866)
For Solaris 11.2.0.42.0 and Later, Network Data Transmitted from a Kernel Zone May Become Corrupted -  Doc ID 2236059.1 (Bug 22618896)
Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience an ARP Storm When There are Two Systems With Duplicate IP Addresses - Doc ID 2237068.1 (Bug 24655191)
Solaris 11 ' logindmux" may Report a Harmless Error When Connecting From Another System using telnet(1) - Doc ID 2232661.1 (Bug 25403716)
syslogd(1M) may Report a Harmless I/O Error During System or Zone Shutdown - Doc ID 2194147.1 (Bug 167362800)
ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) May Experience a System Panic in list_remove - Doc ID 2173984.1 (Bug 22866463)
Solaris 11 and ZFSSA Software Using SMB (smbd(1M)) With 'Oplocks' Enabled may Experience a Panic When Upgrading to SMB2.1  - Doc ID 2178184.1 (22443845)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in smb_oplock_compute_max_level() - Doc ID 2174622.1 (Bug 22765054)

ZFS Storage Appliance (ZFSSA) Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in crgetsid()  - Doc ID 2157019.1 (Bug 19388486)

Java 6u101, 7u85 and 8u51 and Later Releases Break Enterprise Manager Ops Center Agent Controller to Proxy Communication - Doc ID 2046582.1 (Bug 21464720)

Infiniband Switch Reboot May Cause Database Crash or Node Eviction on SuperCluster - Doc ID 2044894.1 (Bug 21417505)

 
11.3.16.30 For Solaris 11.3.12.4.0 through 11.3.17.5.0, NFSv4 mount(1M) Commands Fail to Display Numerical Data - Doc ID 2240085.1  (Bug 24817001, Bug 24809831, Bug 24802866)
Solaris Cluster 4.3.* Global File system (PxFS) Non-root Read/Write Operations on a Non-Primary Node may Fail if One Cluster is running Solaris 11.3.11.6.0 (or later) while another Node in the Cluster is running 11.3.10.7.0 (or earlier) - DocID2221807.1(Bug 25298429)
For Solaris 11.2.0.42.0 and Later, Network Data Transmitted from a Kernel Zone May Become Corrupted -  Doc ID 2236059.1 (Bug 22618896)
Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience an ARP Storm When There are Two Systems With Duplicate IP Addresses - Doc ID 2237068.1 (Bug 24655191)
Solaris 11 ' logindmux" may Report a Harmless Error When Connecting From Another System using telnet(1) - Doc ID 2232661.1 (Bug 25403716)
Solaris 11 Systems using ZFS Pools Built on TRIM or SCSI Unmap Capable AF Disks may Experience Application Crashes, Data File Integrity Issues and/or System Panics Doc ID 2231651.1 (Bug 23261438)
syslogd(1M) may Report a Harmless I/O Error During System or Zone Shutdown - Doc ID 2194147.1 (Bug 167362800)
ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) May Experience a System Panic in list_remove - Doc ID 2173984.1 (Bug 22866463)
Solaris 11 and ZFSSA Software Using SMB (smbd(1M)) With 'Oplocks' Enabled may Experience a Panic When Upgrading to SMB2.1  - Doc ID 2178184.1 (22443845)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in smb_oplock_compute_max_level() - Doc ID 2174622.1 (Bug 22765054)

ZFS Storage Appliance (ZFSSA) Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in crgetsid()  - Doc ID 2157019.1 (Bug 19388486)

Java 6u101, 7u85 and 8u51 and Later Releases Break Enterprise Manager Ops Center Agent Controller to Proxy Communication - Doc ID 2046582.1 (Bug 21464720)

Infiniband Switch Reboot May Cause Database Crash or Node Eviction on SuperCluster - Doc ID 2044894.1 (Bug 21417505)
11.3.15.4.0 For Solaris 11.3.12.4.0 through 11.3.17.5.0, NFSv4 mount(1M) Commands Fail to Display Numerical Data - Doc ID 2240085.1  (Bug 24817001, Bug 24809831, Bug 24802866)
Solaris Cluster 4.3.* Global File system (PxFS) Non-root Read/Write Operations on a Non-Primary Node may Fail if One Cluster is running Solaris 11.3.11.6.0 (or later) while another Node in the Cluster is running 11.3.10.7.0 (or earlier) - Doc ID 2221807.1 (Bug 25298429)
For Solaris 11.2.0.42.0 and Later, Network Data Transmitted from a Kernel Zone May Become Corrupted -  Doc ID 2236059.1 (Bug 22618896)
Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience an ARP Storm When There are Two Systems With Duplicate IP Addresses - Doc ID 2237068.1 (Bug 24655191)
Solaris 11 Systems using ZFS Pools Built on TRIM or SCSI Unmap Capable AF Disks may Experience Application Crashes, Data File Integrity Issues and/or System Panics Doc ID 2231651.1 (Bug 23261438)
syslogd(1M) may Report a Harmless I/O Error During System or Zone Shutdown - Doc ID 2194147.1 (Bug 167362800)
ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) May Experience a System Panic in list_remove - Doc ID 2173984.1 (Bug 22866463)
Solaris 11 and ZFSSA Software Using SMB (smbd(1M)) With 'Oplocks' Enabled may Experience a Panic When Upgrading to SMB2.1  - Doc ID 2178184.1 (22443845)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in smb_oplock_compute_max_level() - Doc ID 2174622.1 (Bug 22765054)

ZFS Storage Appliance (ZFSSA) Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in crgetsid()  - Doc ID 2157019.1 (Bug 19388486)

Java 6u101, 7u85 and 8u51 and Later Releases Break Enterprise Manager Ops Center Agent Controller to Proxy Communication - Doc ID 2046582.1 (Bug 21464720)

Infiniband Switch Reboot May Cause Database Crash or Node Eviction on SuperCluster - Doc ID 2044894.1 (Bug 21417505)
 
11.3.14.6.0 For Solaris 11.3.12.4.0 through 11.3.17.5.0, NFSv4 mount(1M) Commands Fail to Display Numerical Data - Doc ID 2240085.1  (Bug 24817001, Bug 24809831, Bug 24802866)
Solaris Cluster 4.3.* Global File system (PxFS) Non-root Read/Write Operations on a Non-Primary Node may Fail if One Cluster is running Solaris 11.3.11.6.0 (or later) while another Node in the Cluster is running 11.3.10.7.0 (or earlier) - Doc ID 2221807.1 (Bug 25298429)
For Solaris 11.2.0.42.0 and Later, Network Data Transmitted from a Kernel Zone May Become Corrupted -  Doc ID 2236059.1 (Bug 22618896)
Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience an ARP Storm When There are Two Systems With Duplicate IP Addresses - Doc ID 2237068.1 (Bug 24655191)
Solaris 11 Systems using ZFS Pools Built on TRIM or SCSI Unmap Capable AF Disks may Experience Application Crashes, Data File Integrity Issues and/or System Panics Doc ID 2231651.1 (Bug 23261438)
syslogd(1M) may Report a Harmless I/O Error During System or Zone Shutdown - Doc ID 2194147.1 (Bug 167362800)

On Solaris 11.3.1.5.0 or Later, Use of ZFS ARC may Cause System Panics and Performance Issues Leading to Hangs  - Doc ID 2192534.1 (Bug 21748206, Bug 23005679)


ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) May Experience a System Panic in list_remove - Doc ID 2173984.1 (Bug 22866463)

Solaris 11 and ZFSSA Software Using SMB (smbd(1M)) With 'Oplocks' Enabled may Experience a Panic When Upgrading to SMB2.1  - Doc ID 2178184.1 (22443845)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in smb_oplock_compute_max_level() - Doc ID 2174622.1 (Bug 22765054)

ZFS Storage Appliance (ZFSSA) Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in crgetsid()  - Doc ID 2157019.1 (Bug 19388486)

Java 6u101, 7u85 and 8u51 and Later Releases Break Enterprise Manager Ops Center Agent Controller to Proxy Communication - Doc ID 2046582.1 (Bug 21464720)

Infiniband Switch Reboot May Cause Database Crash or Node Eviction on SuperCluster - Doc ID 2044894.1 (Bug 21417505)
 
11.3.13.4.0 For Solaris 11.3.12.4.0 through 11.3.17.5.0, NFSv4 mount(1M) Commands Fail to Display Numerical Data - Doc ID 2240085.1  (Bug 24817001, Bug 24809831, Bug 24802866)
Solaris Cluster 4.3.* Global File system (PxFS) Non-root Read/Write Operations on a Non-Primary Node may Fail if One Cluster is running Solaris 11.3.11.6.0 (or later) while another Node in the Cluster is running 11.3.10.7.0 (or earlier) - DocID 2221807.1 (Bug 25298429)
For Solaris 11.2.0.42.0 and Later, Network Data Transmitted from a Kernel Zone May Become Corrupted -  Doc ID 2236059.1 (Bug 22618896)
Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience an ARP Storm When There are Two Systems With Duplicate IP Addresses - Doc ID 2237068.1 (Bug 24655191)
Solaris 11 Systems using ZFS Pools Built on TRIM or SCSI Unmap Capable AF Disks may Experience Application Crashes, Data File Integrity Issues and/or System Panics Doc ID 2231651.1 (Bug 23261438)
Solaris 11.3.13.4.0 may Erroneously Experience I/O Failure When All Active/Optimized Paths Become Offline - Doc ID 2201386.1 (Bug 24913570)
syslogd(1M) may Report a Harmless I/O Error During System or Zone Shutdown - Doc ID 2194147.1 (Bug 167362800)
On Solaris 11.3.1.5.0 or Later, Use of ZFS ARC may Cause System Panics and Performance Issues Leading to Hangs  - Doc ID 2192534.1 (Bug 21748206, Bug 23005679)
ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) May Experience a System Panic in list_remove - Doc ID 2173984.1 (Bug 22866463)
Solaris 11 and ZFSSA Software Using SMB (smbd(1M)) With 'Oplocks' Enabled may Experience a Panic When Upgrading to SMB2.1  - Doc ID 2178184.1 (22443845)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in smb_oplock_compute_max_level() - Doc ID 2174622.1 (Bug 22765054)

ZFS Storage Appliance (ZFSSA) Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in crgetsid()  - Doc ID 2157019.1 (Bug 19388486)

Java 6u101, 7u85 and 8u51 and Later Releases Break Enterprise Manager Ops Center Agent Controller to Proxy Communication - Doc ID 2046582.1 (Bug 21464720)

Infiniband Switch Reboot May Cause Database Crash or Node Eviction on SuperCluster - Doc ID 2044894.1 (Bug 21417505)
 














11.3.12.4.0
For Solaris 11.3.12.4.0 through 11.3.17.5.0, NFSv4 mount(1M) Commands Fail to Display Numerical Data - Doc ID 2240085.1  (Bug 24817001, Bug 24809831, Bug 24802866)
Solaris Cluster 4.3.* Global File system (PxFS) Non-root Read/Write Operations on a Non-Primary Node may Fail if One Cluster is running Solaris 11.3.11.6.0 (or later) while another Node in the Cluster is running 11.3.10.7.0 (or earlier) - Doc ID 2221807.1 (Bug 25298429)
For Solaris 11.2.0.42.0 and Later, Network Data Transmitted from a Kernel Zone May Become Corrupted -  Doc ID 2236059.1 (Bug 22618896)
Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience an ARP Storm When There are Two Systems With Duplicate IP Addresses - Doc ID 2237068.1 (Bug 24655191)
Solaris 11 Systems using ZFS Pools Built on TRIM or SCSI Unmap Capable AF Disks may Experience Application Crashes, Data File Integrity Issues and/or System Panics Doc ID 2231651.1 (Bug 23261438)
Solaris 11 may Experience RAC Node Evictions Due to Slowness in Kernel Memory Allocations - Doc ID 2213222.1 (Bug 22471289)

syslogd(1M) may Report a Harmless I/O Error During System or Zone Shutdown - Doc ID 2194147.1 (Bug 167362800)

On Solaris 11.3.1.5.0 or Later, Use of ZFS ARC may Cause System Panics and Performance Issues Leading to Hangs  - Doc ID 2192534.1 (Bug 21748206, Bug 23005679)

SunOS 4.x Binaries Fail to Run in Solaris 10 Branded Zones on Solaris 11.3.1.5.0 through 11.3.12.4.0 - Doc ID 2187794.1 (Bug 22455418)

SPARC T4, T5/M5/M6 or T7/S7/M7 Platforms Configured Explicitly for Cross-CPU Migration may Experience Memory Corruption in Oracle VM Server for SPARC Guest Domains and Kernel Zones  - Doc ID 2179881.1 (Bug 23731895)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) May Experience a System Panic in list_remove - Doc ID 2173984.1 (Bug 22866463)

Solaris 11 and ZFSSA Software Using SMB (smbd(1M)) With 'Oplocks' Enabled may Experience a Panic When Upgrading to SMB2.1  - Doc ID 2178184.1 (22443845)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in smb_oplock_compute_max_level() - Doc ID 2174622.1 (Bug 22765054)

Solaris 11 (x86) and ZFSSA Software may Experience a BAD TRAP Panic on Boot Which may Prevent a Crash Dump from Being Saved  - Doc ID 2179100.1 (Bug 15858870)

ZFS Storage Appliance (ZFSSA) Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in crgetsid()  - Doc ID 2157019.1 (Bug 19388486)


Java 6u101, 7u85 and 8u51 and Later Releases Break Enterprise Manager Ops Center Agent Controller to Proxy Communication - Doc ID 2046582.1 (Bug 21464720)

Infiniband Switch Reboot May Cause Database Crash or Node Eviction on SuperCluster - Doc ID 2044894.1 (Bug 21417505)
 
11.3.11.6.0 Solaris Cluster 4.3.* Global File system (PxFS) Non-root Read/Write Operations on a Non-Primary Node may Fail if One Cluster is running Solaris 11.3.11.6.0 (or later) while another Node in the Cluster is running 11.3.10.7.0 (or earlier) - Doc ID 2221807.1 (Bug 25298429)
For Solaris 11.2.0.42.0 and Later, Network Data Transmitted from a Kernel Zone May Become Corrupted -  Doc ID 2236059.1 (Bug 22618896)
Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience an ARP Storm When There are Two Systems With Duplicate IP Addresses - Doc ID 2237068.1 (Bug 24655191)
Solaris 11 Systems using ZFS Pools Built on TRIM or SCSI Unmap Capable AF Disks may Experience Application Crashes, Data File Integrity Issues and/or System Panics Doc ID 2231651.1 (Bug 23261438)
syslogd(1M) may Report a Harmless I/O Error During System or Zone Shutdown - Doc ID 2194147.1 (Bug 167362800)
On Solaris 11.3.1.5.0 or Later, Use of ZFS ARC may Cause System Panics and Performance Issues Leading to Hangs  - Doc ID 2192534.1 (Bug 21748206, Bug 23005679)

SunOS 4.x Binaries Fail to Run in Solaris 10 Branded Zones on Solaris 11.3.1.5.0 through 11.3.12.4.0 - Doc ID 2187794.1 (Bug 22455418)

SPARC T4, T5/M5/M6 or T7/S7/M7 Platforms Configured Explicitly for Cross-CPU Migration may Experience Memory Corruption in Oracle VM Server for SPARC Guest Domains and Kernel Zones  - Doc ID 2179881.1 (Bug 23731895)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) May Experience a System Panic in list_remove - Doc ID 2173984.1 (Bug 22866463)

Solaris 11 and ZFSSA Software Using SMB (smbd(1M)) With 'Oplocks' Enabled may Experience a Panic When Upgrading to SMB2.1  - Doc ID 2178184.1 (22443845)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in smb_oplock_compute_max_level() - Doc ID 2174622.1 (Bug 22765054)

Solaris 11 (x86) and ZFSSA Software may Experience a BAD TRAP Panic on Boot Which may Prevent a Crash Dump from Being Saved  - Doc ID 2179100.1 (Bug 15858870)

ZFS Storage Appliance (ZFSSA) Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in crgetsid()  - Doc ID 2157019.1 (Bug 19388486)

 

Java 6u101, 7u85 and 8u51 and Later Releases Break Enterprise Manager Ops Center Agent Controller to Proxy Communication - Doc ID 2046582.1 (Bug 21464720)

Infiniband Switch Reboot May Cause Database Crash or Node Eviction on SuperCluster - Doc ID 2044894.1 (Bug 21417505)
 
11.3.10.7.0  NOTE - A New 'Firmware Check' Service in Solaris 11.3.10.5.0 Generates a FATAL Error Message and goes into Maintenance Mode if the System Firmware Version is not the Latest Release - Doc ID 2168080.1 (Bug 24348966)
For Solaris 11.2.0.42.0 and Later, Network Data Transmitted from a Kernel Zone May Become Corrupted -  Doc ID 2236059.1 (Bug 22618896)
Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience an ARP Storm When There are Two Systems With Duplicate IP Addresses - Doc ID 2237068.1 (Bug 24655191)
Solaris 11 Systems using ZFS Pools Built on TRIM or SCSI Unmap Capable AF Disks may Experience Application Crashes, Data File Integrity Issues and/or System Panics Doc ID 2231651.1 (Bug 23261438)
syslogd(1M) may Report a Harmless I/O Error During System or Zone Shutdown - Doc ID 2194147.1 (Bug 167362800)
On Solaris 11.3.1.5.0 or Later, Use of ZFS ARC may Cause System Panics and Performance Issues Leading to Hangs  - Doc ID 2192534.1 (Bug 21748206, Bug 23005679)

SunOS 4.x Binaries Fail to Run in Solaris 10 Branded Zones on Solaris 11.3.1.5.0 through 11.3.12.4.0 - Doc ID 2187794.1 (Bug 22455418)

SPARC T4, T5/M5/M6 or T7/S7/M7 Platforms Configured Explicitly for Cross-CPU Migration may Experience Memory Corruption in Oracle VM Server for SPARC Guest Domains and Kernel Zones  - Doc ID 2179881.1 (Bug 23731895)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) May Experience a System Panic in list_remove - Doc ID 2173984.1 (Bug 22866463)

Solaris 11 and ZFSSA Software Using SMB (smbd(1M)) With 'Oplocks' Enabled may Experience a Panic When Upgrading to SMB2.1  - Doc ID 2178184.1 (22443845)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in smb_oplock_compute_max_level() - Doc ID 2174622.1 (Bug 22765054)

Solaris 11 (x86) and ZFSSA Software may Experience a BAD TRAP Panic on Boot Which may Prevent a Crash Dump from Being Saved  - Doc ID 2179100.1 (Bug 15858870)

ZFS Storage Appliance (ZFSSA) Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in crgetsid()  - Doc ID 2157019.1 (Bug 19388486)


Java 6u101, 7u85 and 8u51 and Later Releases Break Enterprise Manager Ops Center Agent Controller to Proxy Communication - Doc ID 2046582.1 (Bug 21464720)

Infiniband Switch Reboot May Cause Database Crash or Node Eviction on SuperCluster - Doc ID 2044894.1 (Bug 21417505)
 
11.3.9.4.0 For Solaris 11.2.0.42.0 and Later, Network Data Transmitted from a Kernel Zone May Become Corrupted -  Doc ID 2236059.1 (Bug 22618896)
Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience an ARP Storm When There are Two Systems With Duplicate IP Addresses - Doc ID 2237068.1 (Bug 24655191)
Solaris 11 Systems using ZFS Pools Built on TRIM or SCSI Unmap Capable AF Disks may Experience Application Crashes, Data File Integrity Issues and/or System Panics Doc ID 2231651.1 (Bug 23261438)
syslogd(1M) may Report a Harmless I/O Error During System or Zone Shutdown - Doc ID 2194147.1 (Bug 167362800)

On Solaris 11.3.1.5.0 or Later, Use of ZFS ARC may Cause System Panics and Performance Issues Leading to Hangs  - Doc ID 2192534.1 (Bug 21748206, Bug 23005679)

SunOS 4.x Binaries Fail to Run in Solaris 10 Branded Zones on Solaris 11.3.1.5.0 through 11.3.12.4.0 - Doc ID 2187794.1 (Bug 22455418)

SPARC T4, T5/M5/M6 or T7/S7/M7 Platforms Configured Explicitly for Cross-CPU Migration may Experience Memory Corruption in Oracle VM Server for SPARC Guest Domains and Kernel Zones  - Doc ID 2179881.1 (Bug 23731895)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) May Experience a System Panic in list_remove - Doc ID 2173984.1 (Bug 22866463)

Solaris 11 and ZFSSA Software Using SMB (smbd(1M)) With 'Oplocks' Enabled may Experience a Panic When Upgrading to SMB2.1  - Doc ID 2178184.1 (22443845)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in smb_oplock_compute_max_level() - Doc ID 2174622.1 (Bug 22765054)

Solaris 11 (x86) and ZFSSA Software may Experience a BAD TRAP Panic on Boot Which may Prevent a Crash Dump from Being Saved  - Doc ID 2179100.1 (Bug 15858870)

ZFS Storage Appliance (ZFSSA) Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in crgetsid()  - Doc ID 2157019.1 (Bug 19388486)

Java 6u101, 7u85 and 8u51 and Later Releases Break Enterprise Manager Ops Center Agent Controller to Proxy Communication - Doc ID 2046582.1 (Bug 21464720)

Infiniband Switch Reboot May Cause Database Crash or Node Eviction on SuperCluster - Doc ID 2044894.1 (Bug 21417505)
 
11.3.8.7.0 For Solaris 11.2.0.42.0 and Later, Network Data Transmitted from a Kernel Zone May Become Corrupted -  Doc ID 2236059.1 (Bug 22618896)
Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience an ARP Storm When There are Two Systems With Duplicate IP Addresses - Doc ID 2237068.1 (Bug 24655191)
Solaris 11 Systems using ZFS Pools Built on TRIM or SCSI Unmap Capable AF Disks may Experience Application Crashes, Data File Integrity Issues and/or System Panics Doc ID 2231651.1 (Bug 23261438)
syslogd(1M) may Report a Harmless I/O Error During System or Zone Shutdown - Doc ID 2194147.1 (Bug 167362800)

On Solaris 11.3.1.5.0 or Later, Use of ZFS ARC may Cause System Panics and Performance Issues Leading to Hangs  - Doc ID 2192534.1 (Bug 21748206, Bug 23005679)

SunOS 4.x Binaries Fail to Run in Solaris 10 Branded Zones on Solaris 11.3.1.5.0 through 11.3.12.4.0 - Doc ID 2187794.1 (Bug 22455418)

SPARC T4, T5/M5/M6 or T7/S7/M7 Platforms Configured Explicitly for Cross-CPU Migration may Experience Memory Corruption in Oracle VM Server for SPARC Guest Domains and Kernel Zones  - Doc ID 2179881.1 (Bug 23731895)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) May Experience a System Panic in list_remove - Doc ID 2173984.1 (Bug 22866463)

Solaris 11 and ZFSSA Software Using SMB (smbd(1M)) With 'Oplocks' Enabled may Experience a Panic When Upgrading to SMB2.1  - Doc ID 2178184.1 (22443845)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in smb_oplock_compute_max_level() - Doc ID 2174622.1 (Bug 22765054)

Solaris 11 (x86) and ZFSSA Software may Experience a BAD TRAP Panic on Boot Which may Prevent a Crash Dump from Being Saved  - Doc ID 2179100.1 (Bug 15858870)

ZFS Storage Appliance (ZFSSA) Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in crgetsid()  - Doc ID 2157019.1 (Bug 19388486)


Solaris 11.1.0.24.2 or later May Experience a BAD TRAP System Panic in lgrp_get_policy_flr() - Doc ID 2059821.1 (Bug 18406151)

Java 6u101, 7u85 and 8u51 and Later Releases Break Enterprise Manager Ops Center Agent Controller to Proxy Communication - Doc ID 2046582.1 (Bug 21464720)

Infiniband Switch Reboot May Cause Database Crash or Node Eviction on SuperCluster - Doc ID 2044894.1 (Bug 21417505)
 
 11.3.7.6.0 For Solaris 11.2.0.42.0 and Later, Network Data Transmitted from a Kernel Zone May Become Corrupted -  Doc ID 2236059.1 (Bug 22618896)
Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience an ARP Storm When There are Two Systems With Duplicate IP Addresses - Doc ID 2237068.1 (Bug 24655191)
Solaris 11 Systems using ZFS Pools Built on TRIM or SCSI Unmap Capable AF Disks may Experience Application Crashes, Data File Integrity Issues and/or System Panics Doc ID 2231651.1 (Bug 23261438)
Solaris 11 may Experience RAC Node Evictions Due to Slowness in Kernel Memory Allocations - Doc ID 2213222.1 (Bug 22471289)

syslogd(1M) may Report a Harmless I/O Error During System or Zone Shutdown - Doc ID 2194147.1 (Bug 167362800)

On Solaris 11.3.1.5.0 or Later, Use of ZFS ARC may Cause System Panics and Performance Issues Leading to Hangs  - Doc ID 2192534.1 (Bug 21748206, Bug 23005679)

SunOS 4.x Binaries Fail to Run in Solaris 10 Branded Zones on Solaris 11.3.1.5.0 through 11.3.12.4.0 - Doc ID 2187794.1 (Bug 22455418)

SPARC T4, T5/M5/M6 or T7/S7/M7 Platforms Configured Explicitly for Cross-CPU Migration may Experience Memory Corruption in Oracle VM Server for SPARC Guest Domains and Kernel Zones  - Doc ID 2179881.1 (Bug 23731895)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) May Experience a System Panic in list_remove - Doc ID 2173984.1 (Bug 22866463)

Solaris 11 and ZFSSA Software Using SMB (smbd(1M)) With 'Oplocks' Enabled may Experience a Panic When Upgrading to SMB2.1  - Doc ID 2178184.1 (22443845)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in smb_oplock_compute_max_level() - Doc ID 2174622.1 (Bug 22765054)

Solaris 11 (x86) and ZFSSA Software may Experience a BAD TRAP Panic on Boot Which may Prevent a Crash Dump from Being Saved  - Doc ID 2179100.1 (Bug 15858870)

Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience a System Panic in stmf_ts_xfer_restart() - Doc ID 2161074.1 (Bug 22081482)

ZFS Storage Appliance (ZFSSA) Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in crgetsid()  - Doc ID 2157019.1 (Bug 19388486)


Solaris 11.1.0.24.2 or later May Experience a BAD TRAP System Panic in lgrp_get_policy_flr() - Doc ID 2059821.1 (Bug 18406151)

Java 6u101, 7u85 and 8u51 and Later Releases Break Enterprise Manager Ops Center Agent Controller to Proxy Communication - Doc ID 2046582.1 (Bug 21464720)

Infiniband Switch Reboot May Cause Database Crash or Node Eviction on SuperCluster - Doc ID 2044894.1 (Bug 21417505)
 
11.3.7.5.0  NOTE: Solaris 11.3.7.5.0 has been removed from the Support Repository  - please install S11.3.7.6.0 
11.3.6.5.0 For Solaris 11.2.0.42.0 and Later, Network Data Transmitted from a Kernel Zone May Become Corrupted -  Doc ID 2236059.1 (Bug 22618896)
Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience an ARP Storm When There are Two Systems With Duplicate IP Addresses - Doc ID 2237068.1 (Bug 24655191)
Solaris 11 Systems using ZFS Pools Built on TRIM or SCSI Unmap Capable AF Disks may Experience Application Crashes, Data File Integrity Issues and/or System Panics Doc ID 2231651.1 (Bug 23261438)
Regression in Solaris 11.3.5.6.0 and 11.3.6.5.0 Doc ID 2225462.1 (22860059)Solaris 11 may Experience RAC Node Evictions Due to Slowness in Kernel Memory Allocations - Doc ID 2213222.1 (Bug 22471289)

syslogd(1M) may Report a Harmless I/O Error During System or Zone Shutdown - Doc ID 2194147.1 (Bug 167362800)

On Solaris 11.3.1.5.0 or Later, Use of ZFS ARC may Cause System Panics and Performance Issues Leading to Hangs  - Doc ID 2192534.1 (Bug 21748206, Bug 23005679)

SunOS 4.x Binaries Fail to Run in Solaris 10 Branded Zones on Solaris 11.3.1.5.0 through 11.3.12.4.0 - Doc ID 2187794.1 (Bug 22455418)

SPARC T4, T5/M5/M6 or T7/S7/M7 Platforms Configured Explicitly for Cross-CPU Migration may Experience Memory Corruption in Oracle VM Server for SPARC Guest Domains and Kernel Zones  - Doc ID 2179881.1 (Bug 23731895)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) May Experience a System Panic in list_remove - Doc ID 2173984.1 (Bug 22866463)

Solaris 11 and ZFSSA Software Using SMB (smbd(1M)) With 'Oplocks' Enabled may Experience a Panic When Upgrading to SMB2.1  - Doc ID 2178184.1 (22443845)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in smb_oplock_compute_max_level() - Doc ID 2174622.1 (Bug 22765054)

Solaris 11 (x86) and ZFSSA Software may Experience a BAD TRAP Panic on Boot Which may Prevent a Crash Dump from Being Saved  - Doc ID 2179100.1 (Bug 15858870)

Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience a System Panic in stmf_ts_xfer_restart() - Doc ID 2161074.1 (Bug 22081482)

ZFS Storage Appliance (ZFSSA) Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in crgetsid()  - Doc ID 2157019.1 (Bug 19388486)


Systems With Solaris Volume Manager (SVM) Configured Disks may Experience SVM Replica Corruption When Swapping a Failed Disk Drive Used by the SVM Configuration  - Doc ID 2150605.1 (Bug 22065674)

Solaris 11 Systems may Experience UFS File System Data Integrity Issues Which may Fail to be Reported - Doc ID 2109480.1 (Bug 21614354)

Solaris 11.1.0.24.2 or later May Experience a BAD TRAP System Panic in lgrp_get_policy_flr() - Doc ID 2059821.1 (Bug 18406151)

Java 6u101, 7u85 and 8u51 and Later Releases Break Enterprise Manager Ops Center Agent Controller to Proxy Communication - Doc ID 2046582.1 (Bug 21464720)

Infiniband Switch Reboot May Cause Database Crash or Node Eviction on SuperCluster - Doc ID 2044894.1 (Bug 21417505)
 
11.3.5.6.0 For Solaris 11.2.0.42.0 and Later, Network Data Transmitted from a Kernel Zone May Become Corrupted -  Doc ID 2236059.1 (Bug 22618896)
Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience an ARP Storm When There are Two Systems With Duplicate IP Addresses - Doc ID 2237068.1 (Bug 24655191)
Solaris 11 Systems using ZFS Pools Built on TRIM or SCSI Unmap Capable AF Disks may Experience Application Crashes, Data File Integrity Issues and/or System Panics Doc ID 2231651.1 (Bug 23261438)
Regression in Solaris 11.3.5.6.0 and 11.3.6.5.0 Doc ID 2225462.1 (22860059)Solaris 11 may Experience RAC Node Evictions Due to Slowness in Kernel Memory Allocations - Doc ID 2213222.1 (Bug 22471289)

syslogd(1M) may Report a Harmless I/O Error During System or Zone Shutdown - Doc ID 2194147.1 (Bug 167362800)

On Solaris 11.3.1.5.0 or Later, Use of ZFS ARC may Cause System Panics and Performance Issues Leading to Hangs  - Doc ID 2192534.1 (Bug 21748206, Bug 23005679)

SunOS 4.x Binaries Fail to Run in Solaris 10 Branded Zones on Solaris 11.3.1.5.0 through 11.3.12.4.0 - Doc ID 2187794.1 (Bug 22455418)

SPARC T4, T5/M5/M6 or T7/S7/M7 Platforms Configured Explicitly for Cross-CPU Migration may Experience Memory Corruption in Oracle VM Server for SPARC Guest Domains and Kernel Zones  - Doc ID 2179881.1 (Bug 23731895)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) May Experience a System Panic in list_remove - Doc ID 2173984.1 (Bug 22866463)

Solaris 11 and ZFSSA Software Using SMB (smbd(1M)) With 'Oplocks' Enabled may Experience a Panic When Upgrading to SMB2.1  - Doc ID 2178184.1 (22443845)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in smb_oplock_compute_max_level() - Doc ID 2174622.1 (Bug 22765054)

Solaris 11 (x86) and ZFSSA Software may Experience a BAD TRAP Panic on Boot Which may Prevent a Crash Dump from Being Saved  - Doc ID 2179100.1 (Bug 15858870)

ZFS Storage Appliance (ZFSSA) Software may Experience a Deadlock in 'spa_config_enter' - Doc ID 2167737.1 (Bug 22264028 )

Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience a System Panic in stmf_ts_xfer_restart() - Doc ID 2161074.1 (Bug 22081482)

ZFS Storage Appliance (ZFSSA) Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in crgetsid()  - Doc ID 2157019.1 (Bug 19388486)


Systems With Solaris Volume Manager (SVM) Configured Disks may Experience SVM Replica Corruption When Swapping a Failed Disk Drive Used by the SVM Configuration  - Doc ID 2150605.1 (Bug 22065674)

Solaris 11 Systems may Experience UFS File System Data Integrity Issues Which may Fail to be Reported - Doc ID 2109480.1 (Bug 21614354)

Solaris 11.1.0.24.2 or later May Experience a BAD TRAP System Panic in lgrp_get_policy_flr() - Doc ID 2059821.1 (Bug 18406151)

Java 6u101, 7u85 and 8u51 and Later Releases Break Enterprise Manager Ops Center Agent Controller to Proxy Communication - Doc ID 2046582.1 (Bug 21464720)

Infiniband Switch Reboot May Cause Database Crash or Node Eviction on SuperCluster - Doc ID 2044894.1 (Bug 21417505)
11.3.4.5.0 For Solaris 11.2.0.42.0 and Later, Network Data Transmitted from a Kernel Zone May Become Corrupted -  Doc ID 2236059.1 (Bug 22618896)
Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience an ARP Storm When There are Two Systems With Duplicate IP Addresses - Doc ID 2237068.1 (Bug 24655191)
Solaris 11 Systems using ZFS Pools Built on TRIM or SCSI Unmap Capable AF Disks may Experience Application Crashes, Data File Integrity Issues and/or System Panics Doc ID 2231651.1 (Bug 23261438)
Solaris 11 may Experience RAC Node Evictions Due to Slowness in Kernel Memory Allocations - Doc ID 2213222.1 (Bug 22471289)

syslogd(1M) may Report a Harmless I/O Error During System or Zone Shutdown - Doc ID 2194147.1 (Bug 167362800)

On Solaris 11.3.1.5.0 or Later, Use of ZFS ARC may Cause System Panics and Performance Issues Leading to Hangs  - Doc ID 2192534.1 (Bug 21748206, Bug 23005679)

SunOS 4.x Binaries Fail to Run in Solaris 10 Branded Zones on Solaris 11.3.1.5.0 through 11.3.12.4.0 - Doc ID 2187794.1 (Bug 22455418)

SPARC T4, T5/M5/M6 or T7/S7/M7 Platforms Configured Explicitly for Cross-CPU Migration may Experience Memory Corruption in Oracle VM Server for SPARC Guest Domains and Kernel Zones  - Doc ID 2179881.1 (Bug 23731895)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) May Experience a System Panic in list_remove - Doc ID 2173984.1 (Bug 22866463)

Solaris 11 and ZFSSA Software Using SMB (smbd(1M)) With 'Oplocks' Enabled may Experience a Panic When Upgrading to SMB2.1  - Doc ID 2178184.1 (22443845)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in smb_oplock_compute_max_level() - Doc ID 2174622.1 (Bug 22765054)

Solaris 11 (x86) and ZFSSA Software may Experience a BAD TRAP Panic on Boot Which may Prevent a Crash Dump from Being Saved  - Doc ID 2179100.1 (Bug 15858870)

ZFS Storage Appliance (ZFSSA) Software may Experience a Deadlock in 'spa_config_enter' - Doc ID 2167737.1 (Bug 22264028)

Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience a System Panic in stmf_ts_xfer_restart() - Doc ID 2161074.1 (Bug 22081482)

ZFS Storage Appliance (ZFSSA) Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in crgetsid()  - Doc ID 2157019.1 (Bug 19388486)


Systems With Solaris Volume Manager (SVM) Configured Disks may Experience SVM Replica Corruption When Swapping a Failed Disk Drive Used by the SVM Configuration  - Doc ID 2150605.1 (Bug 22065674)

Solaris 11 Systems may Experience UFS File System Data Integrity Issues Which may Fail to be Reported - Doc ID 2109480.1 (Bug 21614354)

Solaris 11.1.0.24.2 or later May Experience a BAD TRAP System Panic in lgrp_get_policy_flr() - Doc ID 2059821.1 (Bug 18406151)

Java 6u101, 7u85 and 8u51 and Later Releases Break Enterprise Manager Ops Center Agent Controller to Proxy Communication - Doc ID 2046582.1 (Bug 21464720)

Infiniband Switch Reboot May Cause Database Crash or Node Eviction on SuperCluster - Doc ID 2044894.1 (Bug 21417505)
 
11.3.3.6.0 For Solaris 11.2.0.42.0 and Later, Network Data Transmitted from a Kernel Zone May Become Corrupted -  Doc ID 2236059.1 (Bug 22618896)
Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience an ARP Storm When There are Two Systems With Duplicate IP Addresses - Doc ID 2237068.1 (Bug 24655191)
Solaris 11 may Experience RAC Node Evictions Due to Slowness in Kernel Memory Allocations - Doc ID 2213222.1 (Bug 22471289)

syslogd(1M) may Report a Harmless I/O Error During System or Zone Shutdown - Doc ID 2194147.1 (Bug 167362800)

On Solaris 11.3.1.5.0 or Later, Use of ZFS ARC may Cause System Panics and Performance Issues Leading to Hangs  - Doc ID 2192534.1 (Bug 21748206, Bug 23005679)

SunOS 4.x Binaries Fail to Run in Solaris 10 Branded Zones on Solaris 11.3.1.5.0 through 11.3.12.4.0 - Doc ID 2187794.1 (Bug 22455418)

SPARC T4, T5/M5/M6 or T7/S7/M7 Platforms Configured Explicitly for Cross-CPU Migration may Experience Memory Corruption in Oracle VM Server for SPARC Guest Domains and Kernel Zones  - Doc ID 2179881.1 (Bug 23731895)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) May Experience a System Panic in list_remove - Doc ID 2173984.1 (Bug 22866463)

Solaris 11 and ZFSSA Software Using SMB (smbd(1M)) With 'Oplocks' Enabled may Experience a Panic When Upgrading to SMB2.1  - Doc ID 2178184.1 (22443845)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in smb_oplock_compute_max_level() - Doc ID 2174622.1 (Bug 22765054)

Solaris 11 (x86) and ZFSSA Software may Experience a BAD TRAP Panic on Boot Which may Prevent a Crash Dump from Being Saved  - Doc ID 2179100.1 (Bug 15858870)

ZFS Storage Appliance (ZFSSA) Software may Experience a Deadlock in 'spa_config_enter' - Doc ID 2167737.1 (Bug 22264028)

Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience a System Panic in stmf_ts_xfer_restart() - Doc ID 2161074.1 (Bug 22081482)

ZFS Storage Appliance (ZFSSA) Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in crgetsid()  - Doc ID 2157019.1 (Bug 19388486)


Systems With Solaris Volume Manager (SVM) Configured Disks may Experience SVM Replica Corruption When Swapping a Failed Disk Drive Used by the SVM Configuration  - Doc ID 2150605.1 (Bug 22065674)

Solaris 11 Systems may Experience UFS File System Data Integrity Issues Which may Fail to be Reported - Doc ID 2109480.1 (Bug 21614354)

Solaris 11.1.0.24.2 or later May Experience a BAD TRAP System Panic in lgrp_get_policy_flr() - Doc ID 2059821.1 (Bug 18406151)

Java 6u101, 7u85 and 8u51 and Later Releases Break Enterprise Manager Ops Center Agent Controller to Proxy Communication - Doc ID 2046582.1 (Bug 21464720)

Infiniband Switch Reboot May Cause Database Crash or Node Eviction on SuperCluster - Doc ID 2044894.1 (Bug 21417505)
 
11.3.2.4.0 For Solaris 11.2.0.42.0 and Later, Network Data Transmitted from a Kernel Zone May Become Corrupted -  Doc ID 2236059.1 (Bug 22618896)
Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience an ARP Storm When There are Two Systems With Duplicate IP Addresses - Doc ID 2237068.1 (Bug 24655191)
Solaris 11 may Experience RAC Node Evictions Due to Slowness in Kernel Memory Allocations - Doc ID 2213222.1 (Bug 22471289)

syslogd(1M) may Report a Harmless I/O Error During System or Zone Shutdown - Doc ID 2194147.1 (Bug 167362800)

On Solaris 11.3.1.5.0 or Later, Use of ZFS ARC may Cause System Panics and Performance Issues Leading to Hangs  - Doc ID 2192534.1 (Bug 21748206, Bug 23005679)

SunOS 4.x Binaries Fail to Run in Solaris 10 Branded Zones on Solaris 11.3.1.5.0 through 11.3.12.4.0 - Doc ID 2187794.1 (Bug 22455418)

SPARC T4, T5/M5/M6 or T7/S7/M7 Platforms Configured Explicitly for Cross-CPU Migration may Experience Memory Corruption in Oracle VM Server for SPARC Guest Domains and Kernel Zones  - Doc ID 2179881.1 (Bug 23731895)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) May Experience a System Panic in list_remove - Doc ID 2173984.1 (Bug 22866463)

Solaris 11 and ZFSSA Software Using SMB (smbd(1M)) With 'Oplocks' Enabled may Experience a Panic When Upgrading to SMB2.1  - Doc ID 2178184.1 (22443845)

ZFSSA Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in smb_oplock_compute_max_level() - Doc ID 2174622.1 (Bug 22765054)

Solaris 11 (x86) and ZFSSA Software may Experience a BAD TRAP Panic on Boot Which may Prevent a Crash Dump from Being Saved  - Doc ID 2179100.1 (Bug 15858870)

ZFS Storage Appliance (ZFSSA) Software may Experience a Deadlock in 'spa_config_enter' - Doc ID 2167737.1 (Bug 22264028)

Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience a System Panic in stmf_ts_xfer_restart() - Doc ID 2161074.1 (Bug 22081482)

ZFS Storage Appliance (ZFSSA) Software and Solaris 11 Using SMB (smbd(1M)) may Experience a System Panic in crgetsid()  - Doc ID 2157019.1 (Bug 19388486)


Systems With Solaris Volume Manager (SVM) Configured Disks may Experience SVM Replica Corruption When Swapping a Failed Disk Drive Used by the SVM Configuration  - Doc ID 2150605.1 (Bug 22065674)

Solaris 11 Systems may Experience UFS File System Data Integrity Issues Which may Fail to be Reported - Doc ID 2109480.1 (Bug 21614354)

Using snoop(1M), tshark(1) or tcpdump(1) for Capturing Packets Over IP Layer Devices may Cause Loss of TCP Connectivity or a System Panic  - Doc ID 2100341.1 (Bug 20847307)

The linking install stage of Enterprise Business Suite will fail on Solaris 11.3 - Service Alert pending (Bug 22203729)

Solaris 11.1.0.24.2 or later May Experience a BAD TRAP System Panic in lgrp_get_policy_flr() - Doc ID 2059821.1 (Bug 18406151)

A Deadlock Condition in Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Cause the System to Experience a Hang or Panic - Doc ID 2056144.1 (Bug 20020908)

Java 6u101, 7u85 and 8u51 and Later Releases Break Enterprise Manager Ops Center Agent Controller to Proxy Communication - Doc ID 2046582.1 (Bug 21464720)

Infiniband Switch Reboot May Cause Database Crash or Node Eviction on SuperCluster - Doc ID 2044894.1 (Bug 21417505)

Kernel-Level Cryptographic Framework Daemon (see kcfd(1M)) Crashes in Branded Zones - Doc ID 2019145.1 (Bug 20425782)



 
 
 
 
 
 
 
  
Here is the list of Known Issues that affect SRUs but are not bugs in Solaris
Know Issues
ZFSSA Software and Solaris 11 IPoIB Data Links may Stall When High RMAN Backup Loads are Run From Linux 2.6 Based Client Nodes  - Doc ID 2214369.1 (Bug 24364712)OpenSSL Connections may Fail during Handshake Phase from Solaris 11.3.5.6.0  - Doc ID 2128320.1 (Bug 22603686, Bug 22852190)

Solaris 11.2.8.4.0 and Later Releases may Cause a System Panic for Systems Using Third Party Kernel Drivers - Doc ID 2111676.1 (Bug 22319453)

OpenSSH Upgrade in Solaris 11.3.5.6.0 Changes ssh(1) Behavior for Systems not Using the Default SunSSH - Doc ID 2105901.1 (Bug 21696247)

Python 2.6 or 2.7 may Hang When Performing fread() on a pty(7D) - Doc ID 2014111.1 (Bug 19221188)

Solaris 11 and ZFS Storage Appliance (ZFSSA) Software may Experience a 'smbd' Core Dump - Doc ID 2036896.1 (Bug 16313665)

Applications Using NSS 3.14 or Later, Including the Solaris Naming Service LDAP Client, May Fail When Using MD5 Signed Certificates - Doc ID 1916536.1 (Bug 19274108)

Solaris 11.2 Cannot be Installed on Systems Running Solaris Cluster 4.1.7.2.0 or Earlier - Doc ID 1913224.1 (Bug 18443844)

ZFSSA Using the Network Data Management Protocol (NDMP) Will Fail to Backup Files and Directories With Inodes Greater Than 2^30 - Doc ID 1666311.1 (Bug 17612702)

Guest Domains on T5 and M5 Systems may Experience Data Corruption, Hangs or Panics when Live Migrated - Doc ID 1567076.1 (Bug 16911848)