Khoa học AI

Trí tuệ nhân tạo là một tập hợp các Khoa học khác nhau :

  • Học máy (ML)
  • Mạng thần kinh (NN)
  • Học sâu (DL)
  • Dữ liệu lớn
Weak Machine Learning Neural Networks Big Data Deep Learning Strong

Các nhà khoa học AI

AI Các nhà khoa học xây dựng phần mềm với các thuật toán có thể thực hiện các nhiệm vụ thông thường đòi hỏi trí thông minh của con người.

Các nhà khoa học AI có thể là chuyên gia trong nhiều lĩnh vực AI:

  • Ứng dụng toán học
  • Thống kê tính toán
  • Khoa học máy tính
  • Máy học
  • Học kĩ càng

Một số nhà khoa học AI cũng có kinh nghiệm dữ liệu lớn đáng kể:

  • Kinh doanh thông minh
  • Thiết kế cơ sở dữ liệu
  • Thiết kế Kho dữ liệu
  • Khai thác dữ liệu
  • Truy vấn SQL
  • Báo cáo SQL

AI yếu

Trí tuệ nhân tạo yếu được giới hạn trong các khu vực cụ thể hoặc hẹp như hầu hết các AI xung quanh chúng ta ngày nay:

  • Công cụ tìm kiếm
  • Siri của Apple
  • Cortana của Microsoft
  • Alexa của Amazon
  • Watson của IBM

AI yếu còn được gọi là AI hẹp.

AI yếu mô phỏng nhận thức của con người trái ngược với AI mạnh có nhận thức của con người .


AI mạnh

Trí tuệ nhân tạo mạnh là loại AI bắt chước trí thông minh của con người.

AI mạnh cho thấy khả năng suy nghĩ, lập kế hoạch, học hỏi và giao tiếp.

AI mạnh là cấp độ lý thuyết tiếp theo của AI: True Intelligence .

AI mạnh mẽ hướng tới những cỗ máy có khả năng tự nhận thức, ý thức và suy nghĩ khách quan.

Người ta không cần phải quyết định xem một chiếc máy có thể "suy nghĩ" hay không.
Người ta chỉ cần quyết định xem một cỗ máy có thể hoạt động thông minh như con người hay không.

Alan Turing


Học máy (ML)

Lập trình cổ điển sử dụng các chương trình để tạo ra kết quả:

Máy tính truyền thống

Dữ liệu + Chương trình Máy tính = Kết quả

Học máy sử dụng kết quả để tạo chương trình (thuật toán):

Học máy

Dữ liệu + Kết quả = Chương trình Máy tính

"Học máy là một lĩnh vực nghiên cứu cung cấp cho máy tính khả năng học mà không cần được lập trình."

Arthur Samuel (1959)


Mạng thần kinh (NN)

Một trong những khám phá quan trọng nhất trong lịch sử là sức mạnh của Mạng thần kinh (NN).

Trong Mạng thần kinh, nhiều lớp dữ liệu được gọi là Tế bào thần kinh được thêm vào với nhau hoặc xếp chồng lên nhau để tính toán các mức dữ liệu mới.

Các tên ngắn thường được sử dụng:

  • Mạng thần kinh sâu DNN
  • Mạng thần kinh kết hợp của CNN
  • Mạng thần kinh tái phát RNN

Học sâu (DL)

Học sâu là các thuật toán sử dụng Mạng thần kinh để trích xuất dữ liệu cấp cao hơn.

Mỗi lớp kế tiếp sử dụng lớp trước đó làm đầu vào.

Ví dụ: đọc quang học sử dụng các lớp thấp để xác định các cạnh và các lớp cao hơn để xác định các chữ cái.

Học sâu có hai giai đoạn:

1. Đào tạo: Dữ liệu đầu vào được sử dụng để tính toán các thông số của mô hình.

2. Suy luận: Mô hình "được đào tạo" xuất dữ liệu từ bất kỳ đầu vào nhất định nào.


Cuộc cách mạng học sâu

Cuộc cách mạng học tập sâu là ở đây!

Cuộc cách mạng học sâu bắt đầu vào khoảng năm 2010. Kể từ đó, Deep Learning đã được sử dụng để giải quyết nhiều vấn đề “nan giải”.


Các ví dụ

Mạng nơ-ron hợp pháp (CNN)

Các CNN chuyên sâu như ResNeta Inception đã giảm tỷ lệ lỗi trong phân loại ImageNet từ 25% vào năm 2011 xuống còn 5% vào năm 2017.

ImageNet là một cơ sở dữ liệu hình ảnh được tổ chức theo hệ thống phân cấp Mạng từ, trong đó mỗi nút của hệ thống phân cấp chứa hàng trăm và hàng nghìn hình ảnh. ImageNet là một tài nguyên hữu ích cho các nhà nghiên cứu, nhà giáo dục, sinh viên và tất cả những người khác có niềm đam mê với hình ảnh.

Mạng từ là một cơ sở dữ liệu từ vựng về mối quan hệ ngữ nghĩa giữa các từ trong hơn 200 ngôn ngữ. Nó được tổ chức như một sự kết hợp của từ điển và từ đồng nghĩa, liên kết các từ với nhau thành các quan hệ ngữ nghĩa bằng cách sử dụng từ đồng nghĩa, từ trái nghĩa và từ viết tắt.

Mạng thần kinh định kỳ (RNN)

RNN đang giúp tạo các bản nhạc và âm thanh nhạc cụ mới lạ:
https://magenta.tensorflow.org/demos .


Lịch sử của AI

1950Alan Turing xuất bản cuốn "Máy tính và trí thông minh"
Năm 1956AI lần đầu tiên được John McCarthy đề cập trong một hội nghị học thuật
1957Ngôn ngữ lập trình đầu tiên cho máy tính khoa học và số (FORTRAN)
1958Ngôn ngữ lập trình AI đầu tiên (Lisp)
1959Arthur Samuel đã sử dụng thuật ngữ "Học máy"
Năm 1961Robot công nghiệp đầu tiên (Unimate) trên dây chuyền lắp ráp tại General Motors.
1965ELIZA của Joseph Weizenbaum là chương trình tương tác đầu tiên có thể giao tiếp về bất kỳ chủ đề nào
Năm 1972Ngôn ngữ lập trình logic đầu tiên (PROLOG)
1997Deep Blue (IBM) đánh bại nhà vô địch thế giới về cờ vua
2002Robot dọn dẹp đầu tiên (Roomba)
2005Xe tự lái (STANLEY) thắng DARPA
2008Đột phá trong nhận dạng giọng nói (Google)
2011Mạng nơ-ron chiến thắng con người trong nhận dạng biển báo giao thông (99,46% so với 99,22%)
2011Apple Siri
2011Watson (IBM) chiến thắng Jeopardy!
2014Amazon Alexa
2014Microsoft Cortana
2014Xe tự lái (Google) vượt qua bài kiểm tra lái xe cấp tiểu bang
2015Google AlphaGo đã đánh bại các nhà vô địch khác nhau của con người trong trò chơi cờ vây
2016Người máy Sofia của Hanson Robotics
Trang điểm