Tác giả: Ryszard Szopa
Thế giới đang nằm trong “tâm bão” AI – Trí tuệ nhân tạo: Các chuyên gia về Machine Learning thì “hét” mức lương “trên trời”, còn nhà đầu tư cũng “giang rộng vòng tay” đổ không ít vốn vào các startup AI. Vì thế mới nói: đây là một trong những công nghệ gây chuyển biến mạnh mẽ nhất những thập kỉ vừa qua. Nó đã đến, ở lại và sẽ thay đổi cục diện cuộc sống của chúng ta.
Tuy nhiên, nó không đồng nghĩa với việc làm startup AI dễ ăn – dễ sống. Có một số “bẫy ngầm” mà bất cứ ai gia nhập vào ngành này chắc chắn sẽ dẫm phải. Bạn có vượt qua nó không mới quyết định được thành bại của startup mình.
“Tôi và con trai” – bức tranh được vẽ hoàn toàn bằng Artistic Style Transfer – 1 dạng kỹ thuật Deep Learning gây không ít tranh cãi
Các kỹ năng về AI đang bị “hạ giá”
Vào năm 2015 khi tôi vẫn còn ở Google và còn chơi DistBelief (đã được đổi tên lại là TensorFlow). Nói thật là: nó chán vê-lờ… Viết cũng thấy ngượng ngượng, phần abstraction chính cũng chẳng được như bạn kỳ vọng. Giấc mơ build nó ngoài hệ thống build của Google thật sự đúng như tên gọi: một GIẤC MƠ.
Đến cuối năm 2016 thì tôi đang làm cho 1 project detect được bệnh ung thư dựa trên các ảnh mô bệnh (histopathological images). Lúc đó tôi muốn dùng transfer learning: bằng cách dùng Inception – công nghệ phân loại ảnh tốt nhất bấy giờ của Google, và “dạy” nó lại theo dữ liệu về bệnh ung thư tôi có. Tôi còn dùng những công nghệ của bản Inception trước-khi-train do Google cung cấp, chỉ thay đổi 1 chút ở phần layer trên cùng theo hướng tôi đang làm. Sau thời gian lăn lộn với TensorFlow, tôi cũng tìm ra được cách xử lý các layer khác nhau, và hầu hết đều hiệu quả. Nó đòi hỏi không ít kiên nhẫn và thời gian đọc lại source của TensorFlow. Ít ra tôi cũng không phải lo quá nhiều về các dependencies, vì những người làm TensorFlow đã (tốt bụng) chuẩn bị sẵn file docker.
Đầu 2018 thì task trên không còn phù hợp với intern như tôi nữa. Cũng may nhờ có Keras (một framework nền của TensorFlow) chỉ cần vài dòng code Python là bạn đã có thể hoàn thành công việc, và cũng không đòi hỏi bạn phải am hiểu chuyên sâu về nó nữa. Cái “đau đầu” duy nhất còn lại đó là phần Hyper Parameter tuning. Nếu bạn dùng Deep Learning model, bạn có thể tận dụng các knob, số lượng và size của layer,… Việc tối ưu configuration thật ra cũng không quan trọng lắm, và một số thuật toán như grid search cũng không thật sự hiệu quả. Bạn có thể tiến hành nhiều thử nghiệm, bạn sẽ thấy trải nghiệm của vụ này giống như 1 công trình nghệ thuật hơn là một nghiên cứu khoa học.
Giờ đây, khi đang ngồi mổ cò những dòng này (năm 2019), thì Google và Amazon đã offer các dịch vụ automatic model tuning (Cloud AutoML, SageMaker), phía Microsoft cũng đang lên lộ trình ra mắt các dịch vụ tương tự.
Đến đây chắc bạn đã hiểu cái tôi đang muốn nói đến rồi. Những bài toán hóc búa trong quá khứ, giờ đã trở nên dễ dàng hơn. Giờ bạn có thể làm được những thứ khó nhằn, mà không cần tốn công sức quá nhiều. Những công trình kỹ thuật vĩ đại ngày xưa giờ đây đã bị gán mác “lỗi thời”, và bạn cũng chẳng cần kỳ vọng những cái ta đang làm hiện tại sẽ khủng hơn trong tương lai. Đây chẳng qua là dấu hiệu của sự tiến bộ. Chúng ta nợ một lời cảm ơn đến các công ty như Google đã tiêu tốn không ít nghiên cứu & phát triển nên tool để hỗ trợ chúng ta và publish nó free. Lí do họ làm nên những việc này cũng có 2 mặt của nó.
Văn phòng của bạn sau khi được “tái cơ cấu”.
Đầu tiên, đây là dạng Commoditize the complement (hàng hóa bổ sung) cho các sản phẩm hiện tại của họ, gọi là cloud infrastructure. Trong nền kinh tế, 2 món hàng mà bạn thường có xu hướng mua chung với nhau thì gọi là hàng hoá bổ sung, ví dụ: xe hơi mua chung xăng, sữa mua chung ngũ cốc, trứng thì mua chung với thịt. Nếu giá của 1 trong 2 giảm, thì cầu của nó tăng dẫn đến cầu của cái còn lại sẽ tăng. Phần “hàng hóa bổ sung” của cloud chính là phần mềm chạy trên đó, và nhờ đó, những thứ công nghệ liên quan đến AI cũng có một nguồn tài nguyên dồi dào để có thể triển khai một cách dễ dàng. Vì thế, Google cũng giải quyết được vấn đề chi phí -> về lâu về dài, việc phát triển công nghệ này sẽ trở nên tiết kiệm hơn.
Lí do thứ 2 mà Google lại rất hứng thú với AI là vì họ sẽ dành được lợi thế tương đương so với các đối thủ trên thị trường như Amazon và Microsoft. Họ làm nó trước, và chính họ là người mang concept Deep Learning ra thế giới, vì thế mà họ có rất nhiều nhân tài trong đội ngũ. Họ có nhiều kinh nghiệm về phát triển sản phẩm AI, từ đó tạo được nhiều ưu thế khi phát triển tool và dịch vụ ra ngoài thị trường.
Nghe có vẻ hay, nhưng đây là tin buồn cho cả công ty và các cá nhân đang nghiên cứ các kĩ năng AI. Ngày nay, họ sẽ cho bạn nhiều lợi thế cạnh tranh, vì một kĩ sư Machine Learning đủ chuẩn cần rất nhiều thời gian để đọc tài liệu, và phát triển background về toán thật vững để bắt tay vào việc. Tuy nhiên, vì tool có sẵn càng ngày càng tốt và hữu ích, lúc này skill của bạn lại bắt đầu “bớt hiệu lực”. Luật chơi bây giờ sẽ là “đọc hướng dẫn sử dụng” hơn là “đọc nghiên cứ tài liệu”. Nếu bạn không sớm nhận ra ưu thế của mình, đến intern cũng có thể ăn mất phần của bạn. Đặc biệt, nếu intern có data tốt hơn, và câu chuyện chưa dừng lại ở đó…
Data mới là thứ quan trọng hơn so với đống AI Architecture hào nhoáng!
Hãy cùng bàn về case của 2 startup founder, Alice và Bob. Côn ty của họ kêu gọi được cùng lượng tiền, và cạnh tranh khốc liệt trên cũng 1 thị trường. Alice đầu tư vào những kĩ sư giỏi nhất, từ PhD đến Doctor công nghệ siêu sao. Bob thì chỉ thuê các kĩ sư tầm trung, và đầu tư phần lơn vào bảo toàn data hiện có. Vậy công ty nào là lựa chọn của bạn?
Tôi sẽ nằm kèo anh Bob trong lần này. Tại sao? Machine learning hoạt động dựa trên một dataset và chuyển hoá nó vào các model weight. Một model tốt hơn sẽ hiệu quả hơn trong process này (về thời gian và năng suất chung), nhưng theo một số chuẩn thông thường, data tốt hơn sẽ mang đến architecture tốt hơn.
Để chứng minh luận điểm này, hãy thực hiện test sau. Tôi sẽ làm tạo các convolutional network đơn giản, một cái “ngon” và một cái “không ngon bằng”. Layer cuối cùng của bản “ngon” có 128 neuron, còn cái còn lại chỉ có khoảng 64 cái. Tôi đã “dạy” nó về subsets của MNIST dataset của size, và cho sẵn độ chính xác của model trên test set so với số sample mà chúng được học.
Màu xanh dương là model “ngon” hơn, màu xanh lá là model “xấu” hơn
Hiệu ứng tích cực của việc set dataset size rất rõ ràng (ít nhất cũng đến khi model bắt đầu fit và ổn định). Model “ngon” hơn – line màu xanh dương, rõ ràng sẽ làm tốt hơn so với cái kia – line xanh lá. Tuy nhiên, cái tôi muốn nhấn mạnh là độ chính xác của line xanh lá sau khi được học trên 40k mẫu lại tốt hơn hẳn so với line xanh dương chỉ được luyện trên 30k mẫu.
Điểm mấu chốt ở đây là, kĩ sư của Alice không chỉ đang cạnh tranh với kĩ sư của Bob. Nhờ có văn hoá mở của cộng đồng AI và tầm quan trọng của việc chia sẻ kiến thức, họ cũng đang chạy đua với cả các researcher tại Google, Facebook, Microsoft, và cả ngàn trường đại học trên thế giới. Sử dụng architecture phù hợp nhất cho data của bạn là một cuộc chiến thử nghiệm về chiến lược nếu như mục tiêu của bạn là giải quyết vấn đề (ngược lại với việc cống hiến bản gốc cho khoa học). Nếu không có sẵn những cái hiệu quả, việc đợi người mang giải pháp đến chỉ là vấn đề về thời gian. Bạn thậm chí có thể tổ chức một cuộc thi Kaggle để khuyến khích các researcher nghiên cứu phân tích vấn đề cho bạn.
Kĩ sư tốt là quan trọng, nhưng nếu bạn đang làm về AI, thì data mới là ưu thế cạnh tranh. Câu hỏi “Ai là triệu phú” ở đây đó là: Liệu bạn có khả năng tin tưởng vào data và giữ vững được lợi thế của mình không.
Giữ vững lợi thế cạnh tranh trong ngành AI là cực khó!
Với đống dữ liệu dataset khủng, Bob đã dành ưu thế hoàn toàn so với Alice. Bob launch được sản phẩm và dần dành lấy được nhiều thị phần. Chưa kể Bob đã bắt đầu thuê các kĩ sư cao cấp hơn, vì công ty của Bob đã ở một tầm cao mới.
Rồi một ngày Chuck xuất hiện, Chuck rất giàu, có nhiều tiền, nhưng Chuck sẽ phải làm rất nhiều thứ để bắt nhịp được cuộc chơi. Ném một đống tiền vào không đảm bảo việc một project có chạy nhanh hay không. Chưa kể, việc cố gắng gượng ép đưa càng nhiều kỹ sư vào lại còn gây hại hơn, dễ gây rối loạn tình hình. Tuy nhiên, việc tạo ra dataset thì lại khác. Thường thì nó cần rất nhiều nhận lực tay chân, thì bạn sẽ phải chi tiền để thuê thêm người. Hoặc có khi chỉ cần 1 người có thật nhiều data – khi đó tất cả những gì bạn phải làm đó là chi tiền cho license đó. Lúc này thì tiền mới thật sự có tác dụng.
Tại sap Chuck lại có thể kêu gọi được nhiều tiền đầu tư hơn Bob?
Khi một founder kêu gọi vốn được 1 vòng, họ thường sẽ cố gắng đi hai hàng, một là thêm thật nhiều tiền vào, tuy nhiên không được quá nhiều vì cổ phần sẽ bị pha loãng (dilute), Thêm một nhà đầu tư đồng nghĩa với việc bán đi một phần của công ty. Team lãnh đạo phải phải kiểm soát đủ cổ phần trong startup, để không mất động lực và tiền (làm startup khổ lắm quý vị, thật!…)
Mặc khác, nhà đầu tư lại muốn bơm tiền vào những ý tưởng tiềm năng, nhưng cũng phải kiểm soát rủi ro. Nếu rủi ro dự kiến tăng cao, thì họ sẽ kỳ vọng nhiều hơn trên mỗi đồng họ đã đầu tư.
Khi Bob kêu gọi vốn, việc AI sẽ giúp cho sản phẩm vượt trội hơn là điều không tưởng. Dù Bob và team xuất chúng đến đâu thì chuyện bị lên án chỉ trích là không thể tránh khỏi. Trường hợp của Chuck lại khác. Anh ấy hiểu rõ vấn đề, mọi thứ đều nằm trong tầm tay: Sản phẩm của Bob đã là bằng chứng “sống” rõ ràng nhất.
Bob đã đáp trả lại thử thách này bằng cách tiếp tục kêu gọi vòng khác. Bob vẫn đang dẫn đầu cuộc đua. Tuy nhiên tình hình lại phức tạp hơn, nếu như Chuck có thể bảo toàn được quyền access data bằng quan hệ hợp tác thì sao? Thử nghĩ về một startup chẩn đoán bệnh ung thư đi. Chuck hoàn toàn có thể dùng vị trí ngầm nào đó trong một viện y tế để bảo toàn deal với viện đó. Và Bob sẽ không bao giờ có đủ tài chính để làm chuyện đó.
Vậy nên, làm sao để giữ được ưu thế cạnh tranh của sản phẩm AI? Không lâu trước tôi đã vinh hạnh được nói chuyện với Antonio Criminisi của Microsoft Research. Bí mật nằm ở chỗ, chìa khóa của sản phầm không nên chỉ nằm ở AI (AI only), tức là không nên bỏ trứng vào cùng 1 rổ. Ví dụ, InnerEye project của anh ấy sử dụng AI và công nghệ computer vision truyền thống (không dựa trên ML) để phân tích các ảnh chụp x-quang. Khả năng đưa data vào một model và xem nó hoạt động thế nào khá là hay. Tuy nhiên, với một yếu tố kết hợp dùng AI với phần mềm truyển thống, sản phẩm của bạn sẽ khó đoán hơn, vì loại yêu cầu các lập trình viên phải suy nghĩ về các thuật toán và sử dụng một số kiến thức khó để có được kiến thức về miền, nói chung là rất khó để đối thủ có thể nắm bắt được.
AI chỉ nên được dùng như một “đòn bẩy”.
Một trong những cách để phân loại một doanh nghiệp chính là xem xét xem mô hình kinh doanh ấy đang thêm thắt giá trị gì cho những đối tác xung quanh. Hãy xem công ty e-commerce sau làm ví dụ. Nếu bạn tạo ra 1 dòng sản phẩm mới tức là bạn đang thêm giá trị trực tiếp. Trước đó chẳng có gì, giờ đây đã có widget và khách hàng sẽ chi tiền để mua nó. Còn cho ra một kênh phân phối mới, cái đó gọi là đòn bẩy. Bằng cách bán widget mới của bạn trên Amazon, tức là bạn đang nhân đôi lượng bán ra. Cắt giảm chi phí cũng được gọi là đòn bẩy. Nếu bạn thương lượng được một deal ngon với một nhà cung cấp từ Trung Quốc, bạn cũng đang nhân đôi lợi nhuận gộp (gross margin) của mình nữa.
Hãy tư duy theo kiểu thế này, chiếc đòn bẫy chỉ đóng vai trò như một lực đẩy nhẹ giúp bạn đi xa hơn, không nên gượng ép ứng dụng nó vào sản phẩm. Luôn nhớ rằng, đòn bẫy chỉ thật sự hữu ích khi nó được kết nối với một nguồn data giá trị, cũng giống như việc nếu bạn không có đủ loại hàng để bán, thì việc đẩy thêm kênh phân phối dường như không mang lại nhiều giá trị.
Vậy thì nhân tố AI ở đâu để chúng ta hiểu? Có rất nhiều công ty đang cố đưa AI trực tiếp vào sản phẩm của mình (vd: các API nhận diện hình ảnh và những cái tương tự). Đối với các chuyên gia AI thì còn gì hấp dẫn hơn được nữa. Tuy nhiên, đây là một ý tưởng khá fail.
- Một là, bạn đang cạnh tranh với Google và Amazon. Thiệt luôn…
- Hai là, việc tạo ra sản phẩm AI thuần một cách tỉ mỉ là việc khó không tưởng. VD: Tôi muốn dùng Vision API của Google. Đáng tiếc là, chúng tôi chưa reach đến được nhóm đối tượng có nhu cầu phù hợp. Nó hoặc hơi quá mức, hoặc chưa đủ đô, có khi lại cả hai…
Một lựa chọn hay hơn đó là đúng AI như một “đòn bẩy”. Bạn có thể dùng model hiện tại sẵn có và tăng tốc nó bằng AI. VD, nếu bạn đang có 1 quy trình tốn nhiều nhân lực người làm, việc tự động hoá đó sẽ mang đến điều kì diệu. Một số ví dụ điển hình sẽ là ECG analysis, industrial inspection, satellite image analysis. Chính bởi vị AI nằm ở phía backend, bạn sẽ có nhiều option AI hơn để build và giữ được ưu thế cạnh tranh.
Kết luận
AI là một công nghệ thực sự xoay chuyển cuộc chơi. Thế nhưng xây dựng công ty của bạn phụ thuộc vào nó lại là một câu chuyện khác. Bạn không nên quá phụ thuộc vào các kĩ năng về AI, vì chúng đang dần bị “hạ giá” trên xu hướng thị trường nói chung. Việc xây dựng các AI model có vẻ thú vị thật, nhưng cái quan trọng là phải có nguồn data tốt hơn. Giữ lợi thế cạnh tranh đã khó, đặc biệt là khi gặp thằng đối thủ siêu giàu nữa thì nguy cơ cao đó là AI của bạn sẽ bị “nuốt chửng”. Bạn nên hướng về một process data scalable nào mà khó có thể bị bắt chước bởi đối thủ. AI sẽ là cách tiếp cận tốt nhất cho những công việc không cần quá nhiều nhận thức và đầu óc con người, vì sức mạnh lớn nhất của nó là tự động hoá.
Bài viết gốc được đăng tải tại Medium