Điểm:0

Tensorflow không phát hiện GPU - lambdalabs

lá cờ tr
JrV

Tôi cố gắng thiết lập và chạy GPU tensorflow trong môi trường ảo (venv):

tôi sử dụng lambdalabs Hệ điều hành là Ubuntu 20.04.3 LTS.

Tôi có tập lệnh python sau: checkGPY.py:

nhập tenorflow dưới dạng tf

nếu tf.test.gpu_device_name():
    print('Thiết bị GPU mặc định: {}'.format(tf.test.gpu_device_name()))
khác:
    print("Vui lòng cài đặt phiên bản GPU của TF")

Bên ngoài venv nó hoạt động tốt. Tôi nhận được Thiết bị GPU mặc định: /device:GPU:0. Nếu đào tạo một mạng lưới thần kinh nhỏ (NN) và xem nvidia-smi Tôi thấy rằng bộ nhớ GPU tăng lên trong quá trình đào tạo. Vì vậy, tài nguyên GPU được sử dụng để đào tạo NN.

Tuy nhiên, nếu tôi chạy thì nó nằm trong venv (Tôi đã cài đặt phiên bản tensorflow: 2.6.0 bên trong venv.)

(venv) x@y $ python checkGPU.py

Tôi nhận được: Vui lòng cài đặt phiên bản GPU của TF

Tôi cũng nhận được thông tin sau: Không thể tải thư viện động 'libcudnn.so.8'; dlerror: libcudnn.so.8: không thể mở tệp đối tượng được chia sẻ: Không có tệp hoặc thư mục như vậy

Vì vậy, tôi hiểu rằng không thể truy cập thư viện động libcudnn.so.8 từ bên trong venv.

Làm thế nào tôi có thể giải quyết điều này?

Điểm:0
lá cờ tr
JrV

Để giải quyết vấn đề này, tôi làm theo hướng dẫn được viết trên Tensorflow trong venv sử dụng lambdalabs

Đăng câu trả lời

Hầu hết mọi người không hiểu rằng việc đặt nhiều câu hỏi sẽ mở ra cơ hội học hỏi và cải thiện mối quan hệ giữa các cá nhân. Ví dụ, trong các nghiên cứu của Alison, mặc dù mọi người có thể nhớ chính xác có bao nhiêu câu hỏi đã được đặt ra trong các cuộc trò chuyện của họ, nhưng họ không trực giác nhận ra mối liên hệ giữa câu hỏi và sự yêu thích. Qua bốn nghiên cứu, trong đó những người tham gia tự tham gia vào các cuộc trò chuyện hoặc đọc bản ghi lại các cuộc trò chuyện của người khác, mọi người có xu hướng không nhận ra rằng việc đặt câu hỏi sẽ ảnh hưởng—hoặc đã ảnh hưởng—mức độ thân thiện giữa những người đối thoại.