Câu hỏi được gắn thẻ là ['đầy tớ']

Sau khi nâng cấp một số gói và khởi động lại, tôi không thể truy cập menu grub nữa. Hệ thống của tôi bị treo ở logo bo mạch chủ và không cung cấp đầu ra nào khác.
Tôi có thể khởi động vào USB của Trình cài đặt Ubuntu và thậm chí tôi có thể gắn nhóm ZFS của mình, nhưng tôi do dự khi thử bất kỳ loại sửa chá» ...

Tôi đang chạy một ứng dụng nặng ghi nơi tôi đang lưu trữ Postgresql của mình trên ZFS.Nói chung, nó hoạt động tốt, nhưng tôi thấy rằng nhóm ZFS của mình đang bị phân mảnh nặng nề. Tôi thậm chí đã tạo một nhóm ZFS mới và di chuyển dữ liệu đến đó bằng cách sử dụng zfs send / recv, để chống phân mảnh toàn bộ khôn ...
Làm việc với tư cách là nhà khoa học trong môi trường doanh nghiệp, chúng tôi được cung cấp tài nguyên lưu trữ từ SAN trong máy ảo Ubuntu 20.04 (Proxmox). Bộ điều khiển SAN được truyền trực tiếp tới VM (PCIe passthrough).
Bản thân SAN sử dụng phần cứng Raid 60 (không có tùy chọn nào khác được cung cấp cho chúng tôi) và ...
Tôi đang sử dụng ZFS trên máy Debian 9. Máy này đã hoạt động trong nhiều năm mà không có vấn đề gì cho đến ngày hôm nay.
Nhóm zfs được gắn trên đỉnh của hệ thống RAID, được điều khiển bởi phần cứng (vì vậy chỉ một ổ đĩa được tiếp xúc với Linux dưới dạng sda). Bạn có thể xem đầu ra của "trạng thà ...

This is a follow-up to: High speed network writes with large capacity storage. The setup has changed notably.
I have a pool with a single raid-z2
with 6 drives, all Exos X18 CMR drives. Using fio
and manual tests I know that the array can sustain around 800 MB/s sequential writes on average this is fine and in-line with the expected performance of this array. The machine is an Ryzen5 Pro 2400 GE (4C/8T, 3. ...
Tôi có một máy chủ ProxmoxVE mà tôi đã tạo zpool sau trên:
root@thor:\~# danh sách zpool
TÊN KÍCH THƯỚC PHÂN PHỐI CKPOINT MIỄN PHÍ MỞ RỘNGZ FRAG CAP DEDUP HEALTH ALTROOT
Asgard 5,45T 816K 5,45T - - 0% 0% 1,00x TRỰC TUYẾN
root@thor:~# danh sách zfs
TÊN ĐÃ SỬ DỤNG CÓ SẴN THAM KHẢO MOUNTPOINT
Asgard 543K 3.52T 128K /Asgard -
Và nó có các đĩa ...
Tôi có một ổ đĩa cứng duy nhất mà tôi muốn di chuyển sang hệ thống tệp ReFS của Windows Storage Spaces để tương thích với Windows tốt hơn. Rõ ràng là sao chép tất cả dữ liệu sang đĩa khác và quay lại là phương sách cuối cùng; vậy, có cách nào tốt hơn không?
Tôi có một máy chủ zpool cá nhân đang ngừng hoạt động và tôi muốn biết liệu có cách nào để khôi phục những gì tôi có hay không. Hầu hết dữ liệu quan trọng của tôi (ảnh, thuế, v.v.) đã được sao lưu vào OneDrive, vì vậy tôi hầu như không sao, nhưng tôi muốn phần còn lại của dữ liệu nếu có thể.
Tôi đã xem ...
Tôi có một máy chủ trên Azure với một đĩa được gắn có chứa hệ thống tệp ZFS. Tôi cũng có ảnh chụp nhanh đĩa (lấy từ Azure, không phải ảnh chụp nhanh zfs) mà tôi muốn gắn vào máy chủ mới.
Đĩa được tạo từ ảnh chụp nhanh hiển thị trên máy chủ mới với lsblk
.
sdc 8:32 0 256G 0 đĩa
ââsdc1 8:33 0 8G 0 phần
ââsd ...
Tôi có một máy chủ có ổ đĩa JBOD gồm 36 x 14TB có tổng dung lượng sử dụng là 12,7TB (Đĩa là WUH721414AL5201)
Tôi đã tạo hai zpool:
- zpool1 chứa 3 vdev (Mỗi người trong số họ có 8 đĩa và là RAIDz-1) với nhóm có 3 phụ tùng nóng.
hồ bơi: zpool1
trạng thái: TRỰC TUYẾN
cấu hình:
TÊN BANG ĐỌC VIẾT CKSUM
zpool ...

Tôi đang nhắm đến việc có được cụm proxmox 3 nút với 2 nút được kết nối với DAS với cấu trúc liên kết này:
Ý tưởng đằng sau cấu hình này là có một cụm HA và bộ lưu trữ HA. Điều tôi nghĩ đến là có một nhóm zfs có thể truy cập được trong cấu hình hoạt động/thụ động giữa các nút và các liên ká ...

Thiết lập của tôi có 256 GB RAM, trong đó 200 GB dành riêng cho arc và 2 ổ SSD cho l2arc. Nó đã hoạt động được vài ngày và đều đặn phục vụ các tệp cho nhiều khách hàng, nhưng có vẻ như l2arc vẫn chưa được khởi động đúng cách. Báo cáo bộ đệm của zpool iostat -v
nói:
bộ đệm - - - - - -
sdy 4.84G 889G 0 0 203 819
sdz 4.84G ...
Hey guys I am turning up a little FAMP stack on an Azure VM. 4 Xeon cores 16GB ram. Second SSD is using ZFS and the boot drive is UFS2 (Default). When I dd if=/dev/zero of=testfile bs=1024 count=1024000 to my home directory which is located on the boot drive I can see a full 1GB file. When performing the same action on my ZFS dataset it appears to only be writing 512b. Not sure what is going on here. I ...
Nếu chúng ta zfs snapshot -r tank@20220129, thì tất cả các hệ thống tệp con cũng nhận được ảnh chụp nhanh đó.
Làm cách nào để gửi ảnh chụp nhanh duy nhất về xe tăng đó với tất cả các fs phụ đến một nhóm mới (không có cơ sở lịch sử về ảnh chụp nhanh)?
Trong khi zfs gửi -R tank@20220129 sẽ gửi tất cả các sub-fs, nà ...
Sau một phiên đáng xấu hổ khi cố gắng thay thế một đĩa trong nhóm ZFS của mình, tôi có một loạt các mục đại diện cho các đĩa không còn tồn tại trong hệ thống:
TÊN BANG ĐỌC VIẾT CKSUM
dữ liệu ĐÃ XUỐNG 0 0 0
gương-0 ĐÃ XUỐNG 141K 0 0
thay thế-0 UNAVAIL 0 0 0 không đủ bản sao
15005414211141553750 KHÔN ...
Tôi đang chạy proxmox (7.1-10) và một số máy ảo. Tôi đã vô tình buộc phải nhập từ proxmox một nhóm ZFS đang được VM (truenas 12.0-U7) sử dụng với:
nhập zpool -f Pool-1
Lệnh trả về trống và tôi nghĩ mình ổn.
Sau đó, tôi đã khởi động lại Proxmox và nhóm không có ở đó. Tôi đã làm sau đó:
nhập zpool
hồ bơi: Hồ bơi-1
...
Tôi có một phiên bản Solaris 11.4 được liên kết với Miền 2012.
Solaris cho phép bạn chỉnh sửa ACL chia sẻ SMB từ Windows DC thông qua Snap-in quản lý máy tính
.
Câu hỏi của tôi là: Những ACL đó sau đó được ghi lại vào phiên bản Solaris hay chúng chỉ được lưu trữ trên DC, sau đó cung cấp một số loại mã thông báo cho ứ ...

Tôi có một hồ bơi lớn trên một hệ thống. Hệ thống là một nút lưu trữ trong cụm Hadoop, do đó, một dải cũng được vì nếu chúng tôi mất nhóm cục bộ, chúng tôi có thể xây dựng lại dữ liệu ở cấp độ cụm.
Ổ đĩa đang bị hỏng: tôi có thể yêu cầu ZFS thử và di chuyển các khối lưu trữ ra khỏi thiết bị ...
Tôi đã lặp lại sự cố với nhóm zfs trong đó zfs ngừng nhận ra các thiết bị vật lý được dán nhãn chính xác (hoặc do đó nó xuất hiện).
Ubuntu 20.04.2 LTS
5.11.0-44-generic #48~20.04.2-Ubuntu SMP Thứ ba, ngày 14 tháng 12 15:36:44 UTC 2021 x86_64 x86_64 x86_64 GNU/Linux
libzfs2linux/now 0.8.3-1ubuntu12.11 AMD64 [đã cài đặt, có thể nâng cấp là ...
tôi muốn thêm ata-TOSHIBA_DT02ABA400_90D1S0Q2S75H
vào đột kích1-0
. Đang chạy bể chứa zpool ata-TOSHIBA_DT02ABA400_90D1S0Q2S75H
thật không may, nó trở thành:
trạng thái $zpool
hồ bơi: bể
trạng thái: TRỰC TUYẾN
cấu hình:
TÊN BANG ĐỌC VIẾT CKSUM
xe tăng TRỰC TUYẾN 0 0 0
radz1-0 TRỰC TUYẾN 0 0 0
ata- ...

Tôi có một nhóm ZFS ở trạng thái hiện tại:
[root@SERVER-abc ~]# trạng thái zpool -v DATAPOOL
hồ bơi: DATAPOOL
trạng thái: XUỐNG
trạng thái: Một hoặc nhiều thiết bị đã gặp lỗi dẫn đến dữ liệu
tham nhũng. Các ứng dụng có thể bị ảnh hưởng.
hành động: Khôi phục tệp được đề cập nếu có thể. Nếu kh ...
What would be the optimal configuration for a server using raid and where I want to place ZFS only?
I heard that while using ZFS would be better not to use at all the raid controller , is it correct?

Tôi có một đĩa trong lỗi nhóm của mình (tăng quá nhiều lỗi).
Đã vượt quá số lượng lỗi I/O liên quan đến thiết bị ZFS
mức chấp nhận được. ZFS đã đánh dấu thiết bị là bị lỗi.
tác động: Khả năng chịu lỗi của nhóm có thể bị tổn hại.
eid: 52
lớp: thay đổi trạng thái
trạng thái: LỖI
máy ...
Tôi là người chỉnh sửa Camera OP / Video, nhưng tôi quản lý cơ sở hạ tầng bài đăng cho nhóm 2 người của chúng tôi tại công ty sản xuất nhỏ.
Chúng tôi đang gặp sự cố với tốc độ truyền chậm qua mạng từ một trong các camera của chúng tôi. Máy ảnh này ghi vào thẻ SD (Kingston Canvas React 256 GB) một chuỗi DNG. Vì vậ ...

Tôi vừa cài đặt proxmox (7.1-2), thiết lập nhóm zfs và thêm chia sẻ NFS.
Nhưng trên mỗi lần khởi động, dịch vụ zfs-import@asgard.service không khởi động được, nhưng nếu tôi nhìn vào thư mục/asgard thì mọi thứ có vẻ ổn?
Tôi còn khá mới với Proxmox, Linux và ZFS nên tôi hy vọng mình đã thu thập được tất cả nhật ký cà ...
Theo mặc định zfs_vdev_async_write_min_active=2, với giá trị tối đa tương ứng là 10. Giá trị tối đa mặc định tương tự là 10 áp dụng cho hàng đợi đọc và ghi đồng bộ hóa, nhưng đối với chúng, giá trị tối thiểu cũng là 10.
Tôi đã thấy các cấu hình tăng tất cả các mức tối thiểu này lên cùng một số (> 10). ...
Hàng đợi đọc không đồng bộ của Vdev có min=1 và max=3 theo mặc định. Tất cả hàng đợi đọc/ghi đồng bộ hóa được mặc định là tối thiểu=max=10, trong khi ghi không đồng bộ nhận được tối thiểu=2 và tối đa=10.
Các lần đọc không đồng bộ được mô tả là "các lần đọc tìm nạp trước" trong tài liệu. Vì ...

Với hai nhóm ZFS nơi các ảnh chụp nhanh từ cái này được gửi đến cái kia, có thể tự động sửa ảnh chụp nhanh bị hỏng bằng cách sử dụng bản sao của ảnh chụp nhanh đó được lưu trữ trên nhóm kia không?
Tôi hy vọng đây sẽ chỉ là một câu hỏi giả định, nhưng nó có vẻ đáng để biết! Theo như tôi có thể n ...
What are the specific pros and cons, perhaps even conventions, of attaching a volume to a VM directly from a proxmox zfs pool VS mounting the volume through a file/block storage solution like TrueNAS (which is running inside a VM)?
I have a proxmox server with several VMs, one of them running TrueNAS and another running Linux with all my docker instances (others running various services)
The idea of r ...
Tôi có một zpool sau khi đĩa bị lỗi. Cố gắng nhập nó (thậm chí nhập zpool -F -T 12855264 -R /mnt -f rpool
) mang lại lỗi
Ngày 4 tháng 12 12:56:54 kernel freebsd: Solaris: CẢNH BÁO: không thể mở objset 1035, lỗi 5
Ngày 4 tháng 12 12:56:54 freebsd ZFS[10155]: pool I/O fail, zpool=rpool error=97
Ngày 4 tháng 12 12:56:54 freebsd ZFS[10159]: pool I/O fail, zpool=rpool ...