سرور مجازی هند

سرور مجازی هند

خرید سرور مجازی هند: ارائه سرور مجازی لینوکسی از کشور هند، مناسب برای عبور از تحریم ها، تریدر ها، دولوپرهای گوگل، سایتهای بانکی و .. با کانفیگهای متنوع.


ویژگی های سرور مجازی هند:

سرور های مجازی هند مجهز به هارد SSD هستند، که باعث افزایش کیفیت، سرعت و کارایی سرور های مجازی می شود . سرورهای مجازی هند دارای پلن های متنوعی هستند که شما میتوانید براساس نیاز خود آن را انتخاب کنید. سرورهای هند ما ایده آل برای میزبانی از سرورهای وب، پایگاه های داده و استفاده به عنوان سرور مجازی بایننس و ترید هستند که میتوانید از آن به عنوان آی پی ثابت برای بایننس و دیگر صرافی ها استفاده کنید. همه سرورها به پورت 1Gbps متصل هستند.

هنگام خرید سرور مجازی هند امکان نصب برخی از توابع پر طرفدار لینوکس قابل نصب میباشد که در حین سفارش امکان انتخاب سیستم عامل مورد نظر میسر است.

پلن های سرور مجازی هند

مشخصات A1 A2 A3 A4
CPU/پردازنده 1vCore 1vCore 2vCore 2vCore
RAM/حافظه 768M 1024M 2048M 4096M
HDD/هارد دیسک 20G 30G 40G 20G
نوع هارد دیسک SSD SSD SSD SSD
نوع مجازی ساز KVM KVM KVM KVM
Port/پورت 1Gbps 1Gbps 1Gbps 1Gbps
BW/ترافیک 750GB/M 1.5TB/M 2TB/M 2.5TB/M
DC/دیتاسنتر قابل سفارش از 43 کشور قابل سفارش از 43 کشور قابل سفارش از 43 کشور قابل سفارش از 43 کشور
OS/سیستم عامل Linux Linux Linux Linux
زمان تحویل 1-24 hours 1-24 hours 1-24 hours 1-24 hours
آپ تایم %99.99 %99.99 %99.99 %99.99
پشتیبانی
ماهیانه/تومان 348,000 541,140 814,320 995,280
  سفارش سفارش سفارش سفارش

پلــن مورد نظرتـــان را نیــافتید؟!

همین حالا پلن انتخابی یا کانفیگ اختصاصیتان را درخواست کنید

پشتیبانی 24/7

وان سرور با تیمی قدرتمند پشتیبانی 24 ساعته در هفت روز هفته را برای کاربران گرامی وان سرور تدارک دیده تا در هر زمان افتخار خدمت رسانی داشته باشد. پشتیبانی از طریق تیکت و تماس.

آپتایم 99.99%

سرورهای وان سرور از معتبرترین دیتاسنترهای جهان که دارای تضمین آپ تایم 99.99% میباشند، تیم وان سرور به صورت 24 ساعته در حال مانیتورینگ سرورها هستند تا در صورت وجود هرگونه اختلال و مشکل سریعا پیگیر حل مشکل باشند.

مجازی ساز KVM

میزبانی سرورهای مجازی در کنترل پنل Virtualizor امکان دسترسی مدیریتی بهتر با قابلیت نصب و مدیریت سیستم عامل را به شما میدهد که مناسب افرادی با کاربردهای آموزشی میباشد.

هارد NVMe

پرسرعت ترین هارد تا لحظه حال از نوع ssd Nvme میباشد که با اختلاف زیادی از رقبای نوع دیگر هاردها انتقال دیتا دارد، انتقال دیتا با سرعت تقریبا 4GB/s تجربه کاربری بهتری را در مجازی ها به نمایش میگذارد.

سیستم عامل لینوکس

این نوع سرورها به دلیل دیتاسنتری بودن، فقط به نصب سیستم عامل های لینوکس محدود هستند. امکان نصب اکثریت توابع پر مخاطب لینوکس در این سرور محیاست.

ارائه IPv4

هر سرور مجازی دارای یک آی پی اختصاصی از نوع IPv4 از همین کشور میباشد که تا زمان لغو سفارش در اختیار شماست.

برخی از سیستم عامل های قابل پشتیبانی

سوالات متداول

برخی از سوالاتی که ممکن است در ابتدا داشته باشید

بله؛ این سرورها کنترل پنل مدیریتی دارن که میتوانید برخی از توابع لینوکس را بدون نیاز به درخواست پشتیبانی نصب کنید.

منابع سخت افزاری گفته شده در هر پلن کاملا اختصاصی در اختیار کاربران قرار میگیرد.

بله، فقط امکان ارتقای پلن در صورت موجود بودن در هر بازه زمانی ممکن است و محاسبه هزینه ارتقا بر اساس زمان مانده و تفاوت قیمت دو پلن میباشد . در این خصوص میتوانید از طریق تیکت درخواست ارتقاتون رو به پشتیبانی ارسال کنید.

به دلیل دیتاسنتری بودن سرورها قابلیت ارتقای ترافیک نیست، تنها راه افزایش ترافیک ارتقای سرویس به پلن بالاتر میباشد. توجه داشته باشید که ترافیک سرور ها در بازه زمانی 30 روزه به صورت خودکار 0 میشود.

به دلیل دیتاسنتری بودن سرورها امکان ارتقای بخشی منابع ممکن نیست! در صورت ارتقا میتوانید پلن سرورتون رو به پلن بالاتر ارتقا بدهید. امکان تغییر آی پی هم میسر نیست.

اگر جواب سوالتان را نیافتید، میتوانید از لینک زیر در بخش تماس با ما از طریق پلهای ارتباطی با ما در ارتباط باشید.

صفحه تماس بـــا مـــا

نظرات مشتریان

جزیره آموزشی

برخی از پستهای آموزشی پیشنهادی
آموزش راه اندازی K3S , GlusterFS , Load balancer

آموزش راه اندازی K3S , GlusterFS , Load balancer

آموزش راه اندازی K3S , GlusterFS , Load balancerدر این آموزش ما نحوه ی کوبرنتیس کلاستر با استفاده از K3S می پردازیم. K3S یک توزیع کوبرنتیس سبک و کم حجم است که برای سرور های دیتاسنتری هتزنر نظیر CX11 که مجموعه ی وان سرور ارائه می دهد، است. علاوه بر این، ما در این آموزش ، راه اندازی لود بالانسر ابری که بارگیری SSL و ارسال ترافیک به سیستم کوبرنتیس ما را انجام می دهد، را فرا خواهیم گرفت. ما یاد خواهید گرفت که چگونه با استفاده از GlusterFS یک فایل سیستم توزیع شده و تکراری راه اندازی کنیم.موارد مورد نیاز و پیش نیاز هاما در این آموزش فرض می کنیم، که شما از طریق شرکت وان سرور یک سرور دیتاسنتری هتزنر تهیه نمودید و از طریق سایت ما به این سرور مورد نظر دسترسی دارید.در این آموزش از اصطلاحات و موارد پیشفرض زیر استفاده شده است:دامنه : <example.com>کلید SSH (یا همان SSH Key): <your_ssh_key>توکن مخفی تصادفی(Random secret token): <your_secret_token>توکن API سرور دیتاسنتری: <hetzner_api_token>آدرس های IP (IPV4) :K3S Master: 10.0.0.2K3S Node 1: 10.0.0.3K3S Node 2: 10.0.0.4Hetzner Cloud Load Balancer: 10.0.0.254قدم اول - ایجاد شبکه پرایوتاول، ما یک شبکه پرایوت ایجاد می کنیم؛ همچنین که از نود های کوبرنتیس ما برای ارتباط با یکدیگر تشکیل شده اند استفاده می کنیم. ما از شبکه ی 10.0.0.0/16 برای سابنت استفاده می کنیم.hcloud network create --name network-kubernetes --ip-range 10.0.0.0/16hcloud network add-subnet network-kubernetes --network-zone eu-central --type server --ip-range 10.0.0.0/16قدم دوم - ایجاد گروه تعیین سطح و سرورهادر ادامه، یک گروه قرارگیری "گسترش" یا "spread" برای سرورهای خود و سپس ماشین های مجازی ایجاد می کنیم.قدم دوم بخش اول - ایجاد گروه قرار گیری spread (اختیاری)گروه تعیین سطح برای تضمین این است که ماشین های مجازی ما (VMs) بر روی هاست های مختلف ایجاد شوند، پس در این مورد، اگر هاست خراب شود و یا از دسترس خارج شود، هیچ کدام از ماشین های مجازی دیگر را تحت تاثیر خود قرار نمی دهد.hcloud placement-group create --name group-spread --type spreadقدم دوم بخش دوم - ایجاد ماشین های مجازیدر این جا ما از دبیان 10 استفاده می کنیم.hcloud server create --datacenter nbg1-dc3 --type cx11 --name master-1 --image debian-10 --ssh-key <your_ssh_key> --network network-kubernetes --placement-group group-spreadhcloud server create --datacenter nbg1-dc3 --type cx11 --name node-1 --image debian-10 --ssh-key <your_ssh_key> --network network-kubernetes --placement-group group-spreadhcloud server create --datacenter nbg1-dc3 --type cx11 --name node-2 --image debian-10 --ssh-key <your_ssh_key> --network network-kubernetes --placement-group group-spreadقدم سوم - ایجاد و اعلام فایروالخب، حالا که سرور های ما ایجاد شده اند و همچنین فعال هستند، با هم یک فایروال را ایجاد و آن را در ترافیک ورودی و خروجی محدود می کینم(به نوعی به تنظیم آن میپردازیم). ممکن ما فایروال را با توجه به نیاز های خودمان (نیاز باشد که) کمی کاستومایز کنیم.ایجاد فایروال:hcloud firewall create --name firewall-kubernetesاجازه یا Allow دادن ورودی SSH و ICMP :hcloud firewall add-rule firewall-kubernetes --description "Allow SSH In" --direction in --port 22 --protocol tcp --source-ips 0.0.0.0/0 --source-ips ::/0hcloud firewall add-rule firewall-kubernetes --description "Allow ICMP In" --direction in --protocol icmp --source-ips 0.0.0.0/0 --source-ips ::/0اجازه یا Allow دادن خروجی ICMP، DNS، HTTP، HTTPS و NTP:hcloud firewall add-rule firewall-kubernetes --description "Allow ICMP Out" --direction out --protocol icmp --destination-ips 0.0.0.0/0 --destination-ips ::/0hcloud firewall add-rule firewall-kubernetes --description "Allow DNS TCP Out" --direction out --port 53 --protocol tcp --destination-ips 0.0.0.0/0 --destination-ips ::/0hcloud firewall add-rule firewall-kubernetes --description "Allow DNS UDP Out" --direction out --port 53 --protocol udp --destination-ips 0.0.0.0/0 --destination-ips ::/0hcloud firewall add-rule firewall-kubernetes --description "Allow HTTP Out" --direction out --port 80 --protocol tcp --destination-ips 0.0.0.0/0 --destination-ips ::/0hcloud firewall add-rule firewall-kubernetes --description "Allow HTTPS Out" --direction out --port 443 --protocol tcp --destination-ips 0.0.0.0/0 --destination-ips ::/0hcloud firewall add-rule firewall-kubernetes --description "Allow NTP UDP Out" --direction out --port 123 --protocol udp --destination-ips 0.0.0.0/0 --destination-ips ::/0اعمال رول های فایروال بر روی هر سه سرورها:hcloud firewall apply-to-resource firewall-kubernetes --type server --server master-1hcloud firewall apply-to-resource firewall-kubernetes --type server --server node-1hcloud firewall apply-to-resource firewall-kubernetes --type server --server node-2قدم چهارم - نصب K3Sخب خب! الان زمان K3S رسیده. قبل از این که نود اصلی و نود های عامل را آماده کنیم، اول سیستم را آپگرید کرده و AppArmor را نصب می کنیم. به سرور مجازی های ایجاد شده SSH کرده و سپس دستور های زیر را بر روی همه ی آن ها اجرا می کنیم:apt updateapt upgrade -yapt install apparmor apparmor-utils -yقدم چهارم بخش اول - نصب K3S بر روی نود اصلیبه نود اصلی (یا مستر نود) SSH می کنیم، و دستورات زیر را برای نصب و اجرا K3S سرور اجرا می کنیم:curl -sfL https://get.k3s.io | sh -s - server \ --disable-cloud-controller \ --disable metrics-server \ --write-kubeconfig-mode=644 \ --disable local-storage \ --node-name="$(hostname -f)" \ --cluster-cidr="10.244.0.0/16" \ --kube-controller-manager-arg="address=0.0.0.0" \ --kube-controller-manager-arg="bind-address=0.0.0.0" \ --kube-proxy-arg="metrics-bind-address=0.0.0.0" \ --kube-scheduler-arg="address=0.0.0.0" \ --kube-scheduler-arg="bind-address=0.0.0.0" \ --kubelet-arg="cloud-provider=external" \ --token="<your_secret_token>" \ --tls-san="$(hostname -I | awk '{print $2}')" \ --flannel-iface=ens10برای اطلاعات بیشتر در باره ی K3S می توانید، به اسناد ارائه شده یا همان داکیومنشن آن (در این لینک) مراجعه کنید. اما به طور خلاصه :ما برای ذخیره ی بیشتر مقداری از حافظه؛ metrics server را غیر فعال می کنیم.ما ذخیره سازی لوکال را غیر فعال می کنیم چون قرار است از GlusterFS استفاده کنیم.ما CIDR کلاستر را بر روی 10.244.0.0/16 تنظیم می کنیم.ما سه مورد یعنی : Kube Controller ، همچنین Kube Proxy ، و Kube Scheduler را بر روی هر آدرسی به حالت پذیرا قرار می دهیم(با توجه به فایروال)ما رمز توکن شیر شده را به مورد فوق تنظیم کرده ایم، یعنی : <your_secret_token>قدم چهارم بخش دوم - نصب Hetzner Cloud Controller Managerهنوز بر روی نود اصلی قرار داریم، برای نصب این مورد از دستور زیر استفاده می کنیم:kubectl -n kube-system create secret generic hcloud --from-literal=token=<hetzner_api_token> --from-literal=network=network-kuberneteskubectl apply -f https://github.com/hetznercloud/hcloud-cloud-controller-manager/releases/latest/download/ccm-networks.yamlقدم چهارم بخش سوم - نصب کنترل کننده ی ارتقا سیستم (اختیاری)دستور زیر آپگرید کننده ی K3S را ارائه می دهد:kubectl apply -f https://github.com/rancher/system-upgrade-controller/releases/latest/download/system-upgrade-controller.yamlقدم چهارم بخش چهارم - نصب K3S بر روی نود عاملاکنون که سرور K3S ما راه اندازی شده است، به دو نود عامل SSH کرده و دستورات زیر را برای نصب K3S و ارتباط آن با سرور اجرا می کنیم:curl -sfL https://get.k3s.io | K3S_URL=https://10.0.0.2:6443 K3S_TOKEN=<your_secret_token> sh -s - agent \ --node-name="$(hostname -f)" \ --kubelet-arg="cloud-provider=external" \ --flannel-iface=ens10قدم پنجم - نصب GlusterFS (اختیاری)GlusterFS یک نرم افزار رایگان و اوپن سورس (منبع باز) سیستم فایل شبکه به صورت مقیاس پذیر است. می‌توان از آن برای تکثیر فایل‌ها در تمام ماشین‌های مجازی خود استفاده کنیم تا pod های ما بدون توجه به اینکه در کدام نود در حال اجرا هستند، به ذخیره‌سازی دائمی خود دسترسی داشته باشند.قدم پنجم بخش اول - آماده کردن تمام نود هابه هر 3 سرور SSH کرده و دستورات زیر را برای نصب، فعال نمودن و اجرا کردن، سرور Gluster بر روی همه ی ماشین ها اجرا می کنیم:wget -O - https://download.gluster.org/pub/gluster/glusterfs/9/rsa.pub | apt-key add -echo deb [arch=amd64] https://download.gluster.org/pub/gluster/glusterfs/9/LATEST/Debian/buster/amd64/apt buster main > /etc/apt/sources.list.d/gluster.listapt update && apt install -y glusterfs-serversystemctl enable glusterd && systemctl start glusterdفایل سیستم کنترلی Gluster در پوشه ای به نام brick قرار دارد. همچنین توسط GlusterFS نصب شده است. با دستورات زیر دایرکتوری های لازم را ایجاد کنیم:mkdir -p /data/glusterfs/k8s/brick1mkdir -p /mnt/gluster-k8sقدم پنجم بخش دوم - تنظیم کلاسترفقط بر روی نود اصلی، 2 نود دیگر را به عنوان همتا اضافه می کنیم:gluster peer probe 10.0.0.3gluster peer probe 10.0.0.4تایید کردن وضعیت بر روی نود اصلی و نود های فرعی:gluster peer statusقدم پنجم بخش سوم - ایجاد volumeدر نود اصلی خودمان، دستور زیر را برای ایجاد و شروع یک volume تکراری اجرا می کنیم:gluster volume create k8s replica 3 \ 10.0.0.2:/data/glusterfs/k8s/brick1/brick \ 10.0.0.3:/data/glusterfs/k8s/brick1/brick \ 10.0.0.4:/data/glusterfs/k8s/brick1/brick \ forcegluster volume start k8sgluster volume infoقدم پنجم بخش چهارم - اجرا کردن GlusterFS volumeبر روی هر سه نود GlusterFS volume جدید اجرا شده را مونت می کنیم:echo "127.0.0.1:/k8s /mnt/gluster-k8s glusterfs defaults,_netdev 0 0" >> /etc/fstabmount /mnt/gluster-k8sقدم ششم - تنظیم لود بالانس (load balancing)در اینجا ما به طور مثال از لود بالانسر هتزنر SSL offloading و برای مسیریابی رکوئست های HTTP به راه اندازی K3S استفاده می کینم.قدم ششم بخش اول - فعال کردن پروتکل پراکسی در Traefikبا استفاده از دستورات زیر این عمل را انجام می دهیم:cat <<EOF > /var/lib/rancher/k3s/server/manifests/traefik-config.yamlapiVersion: helm.cattle.io/v1kind: HelmChartConfigmetadata: name: traefik namespace: kube-systemspec: valuesContent: |- additionalArguments: - "--entryPoints.web.proxyProtocol.trustedIPs=10.0.0.254" - "--entryPoints.web.forwardedHeaders.trustedIPs=10.0.0.254"EOFقدم ششم بخش دوم - ایجاد load balancer (متعادل کننده بار)متعادل کننده بار یا همان لود بالانسر را ایجاد کنیم و با استفاده از IP پرایوت ثابت 10.0.0.254 آن را به شبکه پرایوت یا خصوصی متصل می کنیم:hcloud load-balancer create --type lb11 --location nbg1 --name lb-kuberneteshcloud load-balancer attach-to-network --network network-kubernetes --ip 10.0.0.254 lb-kubernetesسه ماشین مجازی خودمان را به عنوان تارگت ها اضافه می کنیم و مطمئن می شویم که ترافیک با استفاده از شبکه پرایوت هدایت می شود:hcloud load-balancer add-target lb-kubernetes --server master-1 --use-private-iphcloud load-balancer add-target lb-kubernetes --server node-1 --use-private-iphcloud load-balancer add-target lb-kubernetes --server node-2 --use-private-ipبا استفاده از Let's Encrypt یک گواهی یا همان سرتیفیکیت برای <example.com> ایجاد می کنیم و <certificate_id> را می گیریم:hcloud certificate create --domain <example.com> --type managed --name cert-t1hcloud certificate listبا استفاده از پروتکل پروکسی، سرویس HTTP را برای <example.com> اضافه می کنیم و بررسی سلامت را فعال می کنیم:hcloud load-balancer add-service lb-kubernetes --protocol https --http-redirect-http --proxy-protocol --http-certificates <certificate_id>hcloud load-balancer update-service lb-kubernetes --listen-port 443 --health-check-http-domain <example.com> قدم هفتم - تست نمودن setup انجام شدهتنظیمات و برپایی و ست آپ ما که مربوط به K3S است به اتمام رسیده است. خب وقت این رسیده که از nginx و سرویس HTTP توسط K3S استفاده کنیم.قدم هفتم بخش اول - نوشتن در GlusterFS volumeیک index.html ایجاد می کنیم:mkdir /mnt/gluster-k8s/webtest1echo "Hello World!" > /mnt/gluster-k8s/webtest1/index.htmlقدم هفتم بخش دوم - اسقرار یک وب سرورnginx را مستقر و ایجاد کنید، GlusterFS volume را برای محتوای ثابت نصب می کنیم، پورت HTTP 80 را با استفاده از یک سرویس در معرض دید (انتشار) قرار می دهیم و یک مسیر ورودی Traefik برای دامنه خود ایجاد می کینم :cat <<"EOF" | kubectl apply -f -apiVersion: apps/v1kind: Deploymentmetadata: name: webtest1spec: replicas: 1 selector: matchLabels: app: webtest1 template: metadata: labels: app: webtest1 spec: volumes: - name: volume-webtest1 hostPath: path: "/mnt/gluster-k8s/webtest1" containers: - image: nginx name: nginx ports: - name: port-nginx containerPort: 80 volumeMounts: - mountPath: "/usr/share/nginx/html" name: volume-webtest1 readOnly: false---apiVersion: v1kind: Servicemetadata: name: webtest1spec: ports: - port: 80 protocol: TCP targetPort: 80 selector: app: webtest1 type: ClusterIP---apiVersion: traefik.containo.us/v1alpha1kind: IngressRoutemetadata: name: webtest1spec: entryPoints: - web routes: - match: Host(`<example.com>`) kind: Rule services: - name: webtest1 port: 80EOFقدم هفتم بخش سوم - دسترسی به وب سایتاتمام کار، همچنین ما باید به وب سایت مان https://<example.com> دسترسی داشته باشیم.جمع بندیما با موفقیت یک کلاستر K3S Kubernetes را با یک نود سرور و دو نود عامل راه اندازی کردیم. متعادل کننده بار یا همان لود بالانسر ترافیک را به سیستم ما ارائه می دهد و بارگذاری HTTPS را نیز انجام داده و ما آماده هستیم تا مقداری حجم کار را روی K3S خود قرار دهیم.خب، دوستان وان سروری اگر سوال ، پیشنهاد و انتقادی هست در خدمتیم. میتونید سوال ها تون رو در قسمت نظرات بپرسین تا خدمتتون پاسخ بدیم.

سه‌شنبه, 25 آبان 1400

ادامه مطلب
آموزش نصب MongoDB در CentOS 8

آموزش نصب MongoDB در CentOS 8

آموزش نصب MongoDB در CentOS 8MongoDB یک پایگاه داده رایگان و منبع باز است. متعلق به خانواده ای از بانکهای اطلاعاتی به نام NoSQL است که با پایگاههای داده سنتی SQL مبتنی بر جدول مانند MySQL و PostgreSQL متفاوت است. در این آموزش نحوه نصب و پیکربندی نسخه MongoDB Community Edition در سرور CentOS 8 توضیح داده شده است.در MongoDB ، داده ها در اسناد انعطاف پذیر مانند JSON ذخیره می شوند که در آن قسمت ها می توانند از یک سند به سند دیگر متفاوت باشند. به یک برنامه از پیش تعریف شده نیازی ندارد و ساختار داده ها با گذشت زمان قابل تغییر است. نصب MongoDBMongoDB در مخازن اصلی CentOS 8 در دسترس نیست. مخزن رسمی MongoDB را فعال می کنیم و بسته ها را نصب می کنیم. در زمان نوشتن این مقاله ، آخرین نسخه MongoDB موجود از مخازن رسمی MongoDB نسخه 4.2 است. قبل از شروع نصب ، از بخش Install on Red Hat اسناد MongoDB بازدید کنید و بررسی کنید که نسخه جدید آن در دسترس است یا خیر. برای نصب MongoDB روی سیستم CentOS 8 مراحل زیر را به عنوان root یا کاربر با امتیازات sudo انجام دهید: مخزن MongoDB را با ایجاد یک پرونده مخزن جدید با نام mongodb-org.repo در داخل فهرست /etc/yum.repos.d/ فعال کنید.sudo nano /etc/yum.repos.d/mongodb-org.repo[mongodb-org-4.2]name=MongoDB Repositorybaseurl=https://repo.mongodb.org/yum/redhat/$releasever/mongodb-org/4.2/x86_64/gpgcheck=1enabled=1gpgkey=https://www.mongodb.org/static/pgp/server-4.2.ascاگر می خواهید نسخه قدیمی MongoDB را نصب کنید ، نسخه مورد نظر را با 4.2 جایگزین کنید. بسته meta- mongodb-org نصب.sudo dnf install mongodb-org در حین نصب از شما خواسته می شود که کلید MongoDB GPG را وارد کنید. y تایپ کرده و Enter بزنید. بسته های زیر به عنوان بخشی از بسته mongodb-org بر روی سیستم شما نصب می شوند: mongodb-org-server - Daemon mongod و اسکریپت ها و تنظیمات اولیه مربوطه. mongodb-org-mongos - Daemon mongos . mongodb-org-shell - mongodb-org-shell mongo ، رابط جاوا اسکریپت تعاملی با MongoDB ، که برای انجام کارهای اجرایی استفاده می شد.mongodb-org-tools - شامل چندین ابزار MongoDB برای ایمپورت و اکسپورت داده ها ، آمارها و سایر برنامه های کاربردی است. پس از اتمام نصب ، سرویس MongoDB را فعال کرده و شروع کنید:sudo systemctl enable mongod --now برای تأیید نصب ، به سرور پایگاه داده MongoDB وصل شوید و نسخه سرور را چاپ کنید: mongo دستور زیر را برای نمایش نسخه MongoDB اجرا کنید: db.version() خروجی چیزی شبیه به این خواهد بود: 4.2.3 پیکربندی MongoDBپرونده پیکربندی MongoDB با نام mongod.conf نامگذاری شده است و در فهرست /etc . فایل در قالب YAML است. تنظیمات پیش فرض پیکربندی در اکثر موارد کافی است. با این حال ، برای محیط های تولید ، توصیه می کنیم بخش امنیتی را فراموش نکنید و مجوز را همانطور که در زیر نشان داده شده است فعال کنید:nano /etc/mongod.conf security : authorization : enabled گزینه authorization کنترل دسترسی مبتنی بر نقش (RBAC) را قادر می سازد که دسترسی کاربران به منابع و عملیات پایگاه داده را تنظیم کند. اگر این گزینه غیرفعال باشد ، هر کاربر به هر بانک اطلاعاتی دسترسی پیدا می کند و هر عملی را انجام می دهد. پس از ایجاد تغییر در پرونده پیکربندی MongoDB ، سرویس mongod را مجدداً راه اندازی کنید: sudo systemctl restart mongod برای اطلاعات بیشتر در مورد گزینه های پیکربندی MongoDB ، به صفحه مستندات تنظیمات پرونده گزینه ها مراجعه کنید. ایجاد کاربر MongoDB اداری اگر تأیید هویت MongoDB را فعال کردید ، باید یک کاربر اداری ایجاد کنید که بتواند به نمونه MongoDB دسترسی پیدا کرده و آن را مدیریت کند. ابتدا به شل MongoDB دسترسی پیدا کنید: mongo برای اتصال به بانک اطلاعات admin دستور زیر را تایپ کنید: use adminخروجی:switched to db adminکاربر جدیدی به نام mongoAdmin با قوانین userAdminAnyDatabase بسازید : db.createUser( { user: "mongoAdmin", pwd: "changeMe", roles: [ { role: "userAdminAnyDatabase", db: "admin" } ] })خروجی:Successfully added user: {"user" : "mongoAdmin","roles" : [{"role" : "userAdminAnyDatabase","db" : "admin"}]} شما می توانید کاربر اداری MongoDB را همانطور که می خواهید نامگذاری کنید. از شلmongo خارج شوید: quit() برای آزمایش تغییرات ، با استفاده از کاربر اداری که قبلاً ایجاد کرده اید به شلmongo دسترسی پیدا کنید: mongo -u mongoAdmin -p --authenticationDatabase adminخروجی:MongoDB shell version v4.2.3Enter password:use adminخروجی:switched to db admin اکنون ، کاربران را با دستور زیر مشاهده کنید: show usersخروجی:{"_id" : "admin.mongoAdmin","user" : "mongoAdmin","db" : "admin","roles" : [{"role" : "userAdminAnyDatabase","db" : "admin"}],"mechanisms" : ["SCRAM-SHA-1","SCRAM-SHA-256"]}نتیجه گیریما به شما نشان داده ایم كه چگونه MongoDB 4.2 را در سرور CentOS 8 خود نصب و پیكربندی كنید. برای اطلاعات بیشتر در مورد این موضوع ، از راهنمای MongoDB 4.2 استفاده کنید.

چهارشنبه, 07 اسفند 1398

ادامه مطلب
آموزش اضافه کردن قابلیت PHP Selector (تغییر ورژن PHP) در دایرکت ادمین

آموزش اضافه کردن قابلیت PHP Selector (تغییر ورژن PHP) در دایرکت ادمین

آموزش اضافه کردن قابلیت PHP Selector (تغییر ورژن PHP) در دایرکت ادمیندر این آموزش قصد داریم نحوه اضافه کردن قابلیت PHP Selector (تغییر ورژن PHP) در دایرکت ادمین را خدمت شما عزیزان توضیح دهیم (دقت داشته باشید برای انجام اینکار شما باید دسترسی روت به سرور داشته باشید).توسط این کار شما می توانید این قابلیت را در اختیار کاربر قرار دهید که بتواند ورژن php هاست خود را با توجه به نیاز خود تغییر دهد.برای اضافه کردن این قابلیت شما باید بر روی DirectAdmin خود از کاستم بیلد ورژن 2 (Custombuild2) استفاده کنید. برای پیدا کردن ورژن Custombuild دایرکت ادمین خود دستورات زیر را به ترتیب در SSH اجرا کنید.cd /usr/local/directadmin/custombuild./build versionدر صورتی که ورژن کاستم بیلد شما 2 باشد نتیجه ای مانند تصویر زیر را دریافت خواهید کرد.+ آموزش ارتقا ورژن custombuild در کنترل پنل DirectAdminپس از ارتقا دستورات زیر را وارد نمایید.cd /usr/local/directadmin/custombuildnano options.confسپس طبق تصویر زیر ورژن های php دلخواه خود را قرار دهید. (شما می توانید از ورژن های 5.3/5.4/5.5/5.6/7.0 استفاده کنید.)پس از ویرایش تغییرات را ذخیره کنید. (با نگه داشن کلید های CTRL + X و زدن Enter می توانید تغییرات را ذخیره کنید.) سپس در SSH دستورات زیر را اجرا نمایید.cd /usr/local/directadmin/custombuild./build update./build php nپس انجام موارد بالا قابلیت تغییر PHP در قسمت Domain Setup کنترل پنل هر یوزر اضافه خواهد شد.برای خرید سرور دایرکت ادمین کلیک کنید

دوشنبه, 25 بهمن 1395

ادامه مطلب