Trí tuệ nhân tạo thúc đẩy máy tính và máy móc để bắt chước khả năng giải quyết vấn đề và ra quyết định của bộ óc con người.
Trí tuệ nhân tạo là gì?
Trong khi một số định nghĩa về trí tuệ nhân tạo (AI) đã xuất hiện trong vài thập kỷ qua, John McCarthy đưa ra định nghĩa sau trong bài báo năm 2004 này (PDF, 106 KB) (liên kết nằm ngoài IBM), “Đó là khoa học và kỹ thuật của tạo ra máy móc thông minh, đặc biệt là các chương trình máy tính thông minh. Nó liên quan đến nhiệm vụ tương tự là sử dụng máy tính để hiểu trí thông minh của con người, nhưng AI không phải tự giới hạn mình trong các phương pháp có thể quan sát được về mặt sinh học. ”
Tuy nhiên, nhiều thập kỷ trước định nghĩa này, sự ra đời của cuộc trò chuyện trí tuệ nhân tạo được biểu thị bằng tác phẩm tiêu biểu của Alan Turing, “Máy tính và trí thông minh” (PDF, 89,8 KB) (liên kết nằm ngoài IBM), được xuất bản vào năm 1950. Trong này Paper, Turing, thường được gọi là “cha đẻ của khoa học máy tính”, đặt câu hỏi sau, “Máy móc có thể suy nghĩ không?” Từ đó, ông đưa ra một bài kiểm tra, hiện nay nổi tiếng là “Phép thử Turing”, trong đó người thẩm vấn con người sẽ cố gắng phân biệt giữa phản hồi văn bản của máy tính và con người. Mặc dù thử nghiệm này đã trải qua nhiều sự giám sát kể từ khi được xuất bản, nhưng nó vẫn là một phần quan trọng trong lịch sử của AI cũng như một khái niệm liên tục trong triết học khi nó sử dụng các ý tưởng xung quanh ngôn ngữ học.
Stuart Russell và Peter Norvig sau đó đã tiến hành xuất bản, Artificial Intelligence: A Modern Approach (liên kết nằm ngoài IBM), trở thành một trong những sách giáo khoa hàng đầu về nghiên cứu AI. Trong đó, họ đi sâu vào bốn mục tiêu hoặc định nghĩa tiềm năng của AI, giúp phân biệt các hệ thống máy tính trên cơ sở tính hợp lý và suy nghĩ so với hành động:
Cách tiếp cận của con người:
- Hệ thống suy nghĩ giống như con người
- Hệ thống hoạt động giống như con người
Cách tiếp cận lý tưởng:
- Hệ thống suy nghĩ hợp lý
- Hệ thống hoạt động hợp lý
Ở dạng đơn giản nhất, trí tuệ nhân tạo là một lĩnh vực, kết hợp giữa khoa học máy tính và bộ dữ liệu mạnh mẽ, để cho phép giải quyết vấn đề. Nó cũng bao gồm các lĩnh vực phụ của học máy và học sâu, thường được đề cập đến cùng với trí tuệ nhân tạo. Các bộ môn này bao gồm các thuật toán AI nhằm tạo ra các hệ thống chuyên gia đưa ra các dự đoán hoặc phân loại dựa trên dữ liệu đầu vào.
Ngày nay, rất nhiều sự cường điệu vẫn xoay quanh sự phát triển của AI, vốn được mong đợi ở bất kỳ công nghệ mới đang nổi nào trên thị trường. Như đã lưu ý trong chu kỳ cường điệu của Gartner (liên kết nằm bên ngoài IBM), các cải tiến sản phẩm như ô tô tự lái và trợ lý cá nhân, tuân theo “một tiến trình đổi mới điển hình, từ sự say mê quá mức qua giai đoạn thất vọng đến sự hiểu biết cuối cùng về mức độ liên quan và vai trò của sự đổi mới trong một thị trường hoặc miền. ” Như Lex Fridman lưu ý ở đây (01:08:15) (liên kết nằm bên ngoài IBM) trong bài giảng MIT của anh ấy vào năm 2019, chúng ta đang ở đỉnh điểm của những kỳ vọng tăng cao, tiến gần đến đáy của sự vỡ mộng.
Các loại trí tuệ nhân tạo — AI yếu so với AI mạnh
AI yếu — còn được gọi là AI hẹp hoặc Trí tuệ nhân tạo hẹp (ANI) —là AI được đào tạo và tập trung để thực hiện các nhiệm vụ cụ thể. AI yếu sẽ thúc đẩy hầu hết các AI xung quanh chúng ta ngày nay. ‘Hẹp’ có thể là một mô tả chính xác hơn cho loại AI này vì nó là bất cứ thứ gì ngoại trừ yếu; nó cho phép một số ứng dụng rất mạnh mẽ, chẳng hạn như Siri của Apple, Alexa của Amazon, IBM Watson và các phương tiện tự hành.
AI mạnh mẽ được tạo thành từ Trí tuệ nhân tạo (AGI) và Trí tuệ siêu nhân tạo (ASI). Trí tuệ nhân tạo tổng quát (AGI), hay AI tổng quát, là một dạng lý thuyết của AI, trong đó một cỗ máy sẽ có trí thông minh ngang bằng với con người; nó sẽ có một ý thức tự nhận thức có khả năng giải quyết vấn đề, học hỏi và lập kế hoạch cho tương lai. Trí tuệ siêu nhân tạo (ASI) —còn được gọi là siêu trí tuệ — sẽ vượt qua trí thông minh và khả năng của bộ não con người. Mặc dù AI mạnh vẫn hoàn toàn là lý thuyết và không có ví dụ thực tế nào được sử dụng ngày nay, điều đó không có nghĩa là các nhà nghiên cứu AI cũng không khám phá sự phát triển của nó. Trong khi đó, những ví dụ điển hình nhất về ASI có thể là từ khoa học viễn tưởng, chẳng hạn như HAL, trợ lý máy tính siêu phàm, lừa đảo vào năm 2001: A Space Odyssey.
Học sâu so với học máy
Vì học sâu và học máy có xu hướng được sử dụng thay thế cho nhau, nên cần lưu ý các sắc thái giữa hai phương pháp này. Như đã đề cập ở trên, cả học sâu và học máy đều là một lĩnh vực phụ của trí tuệ nhân tạo, và học sâu thực sự là một lĩnh vực phụ của học máy.
Trình bày trực quan về cách AI, ML và DL liên quan với nhau
Học sâu thực sự bao gồm các mạng thần kinh. “Deep” trong học sâu đề cập đến một mạng nơ-ron bao gồm hơn ba lớp — sẽ bao gồm đầu vào và đầu ra — có thể được coi là một thuật toán học sâu. Điều này thường được biểu diễn bằng sơ đồ sau:
Sơ đồ mạng lưới thần kinh sâu
Cách học sâu và học máy khác nhau ở cách mỗi thuật toán học. Học sâu tự động hóa phần lớn phần trích xuất tính năng của quy trình, loại bỏ một số can thiệp thủ công của con người cần thiết và cho phép sử dụng các tập dữ liệu lớn hơn. Bạn có thể coi học sâu là “học máy có thể mở rộng” như Lex Fridman đã lưu ý trong cùng một bài giảng của MIT ở trên. Học máy cổ điển, hoặc “không sâu”, phụ thuộc nhiều hơn vào sự can thiệp của con người để học. Các chuyên gia về con người xác định thứ bậc của các tính năng để hiểu sự khác biệt giữa các đầu vào dữ liệu, thường yêu cầu nhiều dữ liệu có cấu trúc hơn để tìm hiểu.
Học máy “sâu” có thể tận dụng tập dữ liệu được gắn nhãn, còn được gọi là học có giám sát, để thông báo cho thuật toán của nó, nhưng không nhất thiết phải yêu cầu tập dữ liệu được gắn nhãn. Nó có thể nhập dữ liệu phi cấu trúc ở dạng thô (ví dụ: văn bản, hình ảnh) và nó có thể tự động xác định thứ bậc của các tính năng giúp phân biệt các loại dữ liệu khác nhau với nhau. Không giống như học máy, nó không yêu cầu sự can thiệp của con người để xử lý dữ liệu, cho phép chúng tôi mở rộng quy mô học máy theo những cách thú vị hơn.
Ứng dụng trí tuệ nhân tạo
Ngày nay, có rất nhiều ứng dụng trong thế giới thực của các hệ thống AI. Dưới đây là một số ví dụ phổ biến nhất:
- Nhận dạng giọng nói: Nó còn được gọi là nhận dạng giọng nói tự động (ASR), nhận dạng giọng nói máy tính hoặc chuyển giọng nói thành văn bản và nó là một khả năng sử dụng xử lý ngôn ngữ tự nhiên (NLP) để xử lý giọng nói của con người thành định dạng viết. Nhiều thiết bị di động tích hợp tính năng nhận dạng giọng nói vào hệ thống của chúng để thực hiện tìm kiếm bằng giọng nói — ví dụ: Siri — hoặc cung cấp nhiều khả năng tiếp cận hơn khi nhắn tin.
- Dịch vụ khách hàng: Các đại lý ảo trực tuyến đang thay thế các đại lý con người trong hành trình của khách hàng. Họ trả lời các câu hỏi thường gặp (FAQ) xung quanh các chủ đề, như vận chuyển hoặc cung cấp lời khuyên được cá nhân hóa, bán sản phẩm chéo hoặc đề xuất kích thước cho người dùng, thay đổi cách chúng ta nghĩ về mức độ tương tác của khách hàng trên các trang web và nền tảng truyền thông xã hội. Ví dụ bao gồm bot nhắn tin trên các trang web thương mại điện tử với tác nhân ảo, ứng dụng nhắn tin, chẳng hạn như Slack và Facebook Messenger và các tác vụ thường được thực hiện bởi trợ lý ảo và trợ lý giọng nói.
- Thị giác máy tính: Công nghệ AI này cho phép máy tính và hệ thống lấy thông tin có ý nghĩa từ hình ảnh kỹ thuật số, video và các đầu vào trực quan khác và dựa trên các đầu vào đó, nó có thể thực hiện hành động. Khả năng cung cấp các khuyến nghị này phân biệt nó với các nhiệm vụ nhận dạng hình ảnh. Được hỗ trợ bởi mạng nơ-ron phức hợp, thị giác máy tính có các ứng dụng trong việc gắn thẻ ảnh trên mạng xã hội, chụp ảnh X quang trong chăm sóc sức khỏe và xe hơi tự lái trong ngành công nghiệp ô tô.
- Công cụ đề xuất: Sử dụng dữ liệu hành vi tiêu dùng trong quá khứ, các thuật toán AI có thể giúp khám phá xu hướng dữ liệu có thể được sử dụng để phát triển các chiến lược bán chéo hiệu quả hơn. Điều này được sử dụng để đưa ra các đề xuất bổ sung có liên quan cho khách hàng trong quá trình thanh toán cho các nhà bán lẻ trực tuyến.
- Giao dịch chứng khoán tự động: Được thiết kế để tối ưu hóa danh mục đầu tư chứng khoán, các nền tảng giao dịch tần suất cao do AI điều khiển thực hiện hàng nghìn hoặc thậm chí hàng triệu giao dịch mỗi ngày mà không cần sự can thiệp của con người.
Lịch sử của trí tuệ nhân tạo: Ngày và tên chính
Ý tưởng về ‘một cỗ máy biết suy nghĩ’ có từ thời Hy Lạp cổ đại. Nhưng kể từ khi máy tính điện tử ra đời (và liên quan đến một số chủ đề được thảo luận trong bài viết này), các sự kiện và cột mốc quan trọng trong sự phát triển của trí tuệ nhân tạo bao gồm:
Năm 1950: Alan Turing xuất bản Máy tính và Trí tuệ. Trong bài báo, Turing – nổi tiếng với việc phá vỡ mã ENIGMA của Đức Quốc xã trong Thế chiến II – đề xuất trả lời câu hỏi ‘máy móc có thể suy nghĩ không?’ và giới thiệu Bài kiểm tra Turing để xác định xem một máy tính có thể chứng minh trí thông minh tương tự (hoặc kết quả của cùng một trí thông minh) như con người hay không. Giá trị của phép thử Turing đã được tranh luận kể từ đó.
Năm 1956: John McCarthy đồng ý với thuật ngữ ‘trí tuệ nhân tạo’ tại hội nghị AI lần đầu tiên diễn ra tại Đại học Dartmouth. (McCarthy sẽ tiếp tục phát minh ra ngôn ngữ Lisp.) Cuối năm đó, Allen Newell, J.C. Shaw và Herbert Simon đã tạo ra Logic Theorist, chương trình phần mềm AI đầu tiên chạy.
Năm 1967: Frank Rosenblatt chế tạo Mark 1 Perceptron, máy tính đầu tiên dựa trên mạng nơ-ron ‘học được’ thông qua thử nghiệm và sai sót. Chỉ một năm sau, Marvin Minsky và Seymour Papert xuất bản một cuốn sách có tựa đề Perceptrons, cuốn sách này trở thành công trình mang tính bước ngoặt về mạng nơ-ron và ít nhất là trong một thời gian, là lập luận chống lại các dự án nghiên cứu mạng nơ-ron trong tương lai.
Những năm 1980: Mạng nơ-ron sử dụng thuật toán lan truyền ngược để tự đào tạo trở nên được sử dụng rộng rãi trong các ứng dụng AI.
1997: Deep Blue của IBM đánh bại nhà vô địch cờ vua thế giới khi đó là Garry Kasparov, trong một trận đấu cờ vua (và tái đấu).
2011: IBM Watson đánh bại các nhà vô địch Ken Jennings và Brad Rutter tại Jeopardy!
2015: Siêu máy tính Minwa của Baidu sử dụng một loại mạng nơ-ron sâu đặc biệt được gọi là mạng nơ-ron phức hợp để xác định và phân loại hình ảnh với tỷ lệ chính xác cao hơn so với mức trung bình của con người.
2016: Chương trình AlphaGo của DeepMind, được cung cấp bởi mạng nơ-ron sâu, đánh bại Lee Sodol, nhà vô địch cờ vây thế giới, trong một trận đấu kéo dài 5 ván. Chiến thắng là rất quan trọng với số lượng lớn các nước đi có thể có khi trò chơi tiến triển (hơn 14,5 nghìn tỷ chỉ sau bốn lần di chuyển!). Sau đó, Google đã mua DeepMind với giá 400 triệu USD.
Trí tuệ nhân tạo và Đám mây của IBM
IBM là công ty đi đầu trong việc thúc đẩy các công nghệ dựa trên AI cho các doanh nghiệp và đã đi tiên phong trong tương lai của các hệ thống học máy cho nhiều ngành công nghiệp. Dựa trên nhiều thập kỷ nghiên cứu AI, nhiều năm kinh nghiệm làm việc với các tổ chức thuộc mọi quy mô và học hỏi từ hơn 30.000 lần tham gia IBM Watson, IBM đã phát triển AI Ladder để triển khai trí tuệ nhân tạo thành công:
Thu thập: Đơn giản hóa việc thu thập dữ liệu và khả năng truy cập.
Tổ chức: Tạo nền tảng phân tích sẵn sàng cho doanh nghiệp.
Phân tích: Xây dựng các hệ thống dựa trên AI có thể mở rộng và đáng tin cậy.
Infuse: Tích hợp và tối ưu hóa hệ thống trên toàn bộ khuôn khổ kinh doanh.
Hiện đại hóa: Đưa các ứng dụng và hệ thống AI của bạn lên đám mây.
IBM Watson cung cấp cho các doanh nghiệp các công cụ AI mà họ cần để chuyển đổi hệ thống kinh doanh và quy trình làm việc, đồng thời cải thiện đáng kể tính tự động hóa và hiệu quả. Để biết thêm thông tin về cách IBM có thể giúp bạn hoàn thành hành trình AI của mình, hãy khám phá danh mục các dịch vụ và giải pháp được quản lý của IBM