Câu ví dụ
- Today, RAND is concerned with interpretability in AI systems.
Ngày nay, RAND liên quan đến khả năng giải thích được trong các hệ thống AI. - It must be pointed out that interpretability of the Mamdani-type neuro-fuzzy systems can be lost.
Cần phải ghi chú rằng tính thông dịch được của hệ neuro-fuzzy kiểu Mamdami có thể bị mất. - Interpretability can be a problem—sometimes the answer isn’t at all useful.
Diễn giải có thể là một vấn đề đôi khi câu trả lời không phải là ở tất cả các hữu ích. - If you want interpretability, you probably want linear regression (for regression problems) and decision trees or logistic regression (for classification problems).
Với vấn đề gặp phải, ta lựa chọn mô hình phù hợp (như Logistic Regression cho Classification Problem và Linear Regression cho Regression Problem). - It is one reason that acceptance of some AI tools are slow in application areas where interpretability is useful or indeed required.
Đó là một lý do mà việc chấp nhận một số công cụ AI diễn ra chậm trong các lĩnh vực ứng dụng nơi khả năng giải nghĩa là hữu ích hoặc thực sự cần thiết.