PUBLICATIONSPEOPLE

ジャーナル

  • N. Hosomi, S. Hatanaka, Y. Iioka, W. Yang, K. Kuyo, T. Misu, K. Yamada, and K. Sugiura, “Trimodal Navigable Region Segmentation Model: Grounding Navigation Instructions in Urban Areas”, IEEE Robotics and Automation Letters, 2024, to appear.
  • K. Kaneda, S. Nagashima, R. Korekata, M. Kambara, and K. Sugiura, “Learning-To-Rank Approach for Identifying Everyday Objects Using a Physical-World Search Engine”, IEEE Robotics and Automation Letters, Vol. 9, Issue 3, pp. 2088-2095, 2024. DOI: 10.1109/LRA.2024.3352363PDF
  • A. Ueda, W. Yang and K. Sugiura, “Switching Text-Based Image Encoders for Captioning Images With Text”, IEEE Access, Vol. 11, pp. 55706-55715, 2023. DOI: 10.1109/ACCESS.2023.3282444PDF
  • S. Ishikawa and K. Sugiura, “Affective Image Captioning for Visual Artworks Using Emotion-Based Cross-Attention Mechanisms”, IEEE Access, Vol. 11, pp. 24527-24534, 2023. DOI: 10.1109/ACCESS.2023.3255887PDF
  • S. Matsumori, Y. Abe, K. Shingyouchi, K. Sugiura, and M. Imai, “LatteGAN: Visually Guided Language Attention for Multi-Turn Text-Conditioned Image Manipulation”, IEEE Access, Vol. 9, pp. 160521-160532, 2021. DOI: 10.1109/ACCESS.2021.3129215PDF
  • M. Kambara and K. Sugiura, “Case Relation Transformer: A Crossmodal Language Generation Model for Fetching Instructions”, IEEE Robotics and Automation Letters, Vol. 6, Issue 4, pp. 8371-8378, 2021. DOI: 10.1109/LRA.2021.3107026PDF
  • S. Ishikawa and K. Sugiura, “Target-dependent UNITER: A Transformer-Based Multimodal Language Comprehension Model for Domestic Service Robots”, IEEE Robotics and Automation Letters, Vol. 6, Issue 4, pp. 8401-8408, 2021. DOI: 10.1109/LRA.2021.3108500PDF
  • A. Magassouba, K. Sugiura, and H. Kawai, “CrossMap Transformer: A Crossmodal Masked Path Transformer Using Double Back-Translation for Vision-and-Language Navigation”, IEEE Robotics and Automation Letters, Vol. 6, Issue 4, pp. 6258-6265, 2021. DOI: 10.1109/LRA.2021.3092686PDF
  • A. Magassouba, K. Sugiura, A. Nakayama, T. Hirakawa, T. Yamashita, H. Fujiyoshi, and H. Kawai, “Predicting and Attending to Damaging Collisions for Placing Everyday Objects in Photo-Realistic Simulations”, Advanced Robotics, Vol. 35, Issue 12, pp. 787-799, 2021. DOI: 10.1080/01691864.2021.1913446PDF
  • N. Nishizuka, Y. Kubo, K. Sugiura, M. Den, M. Ishii, “Operational Solar Flare Prediction Model Using Deep Flare Net”, Earth, Planets and Space, Vol. 73, Article 64, pp. 1-12, 2021. DOI: 10.1186/s40623-021-01381-9PDF
  • T. Ogura, A. Magassouba, K. Sugiura, T. Hirakawa, T. Yamashita, H. Fujiyoshi, H. Kawai, “Alleviating the Burden of Labeling: Sentence Generation by Attention Branch Encoder-Decoder Network”, IEEE Robotics and Automation Letters, Vol. 5, Issue 4, pp. 5945-5952, 2020. DOI: 10.1109/LRA.2020.3010735PDF
  • N. Nishizuka, Y. Kubo, K. Sugiura, M. Den, M. Ishii, “Reliable Probability Prediction Model of Solar Flares: Deep Flare Net-Reliable (DeFN-R)”, The Astrophysical Journal, Vol. 899, No. 2, 150(8pp), 2020. DOI: 10.3847/1538-4357/aba2f2PDF
  • A. Magassouba, K. Sugiura, H. Kawai, “A Multimodal Target-Source Classifier with Attention Branches to Understand Ambiguous Instructions for Fetching Daily Objects”, IEEE Robotics and Automation Letters, Vol. 5, Issue 2, pp. 532-539, 2020. DOI: 10.1109/LRA.2019.2963649PDF
  • A. Magassouba, K. Sugiura, A. Trinh Quoc, H. Kawai, “Understanding Natural Language Instructions for Fetching Daily Objects Using GAN-Based Multimodal Target-Source Classification”, IEEE Robotics and Automation Letters, Vol. 4, Issue 4, pp. 3884 – 3891, 2019. DOI: 10.1109/LRA.2019.2926223PDF
  • A. Magassouba, K. Sugiura, H. Kawai, “A Multimodal Classifier Generative Adversarial Network for Carry and Place Tasks from Ambiguous Language Instructions”, IEEE Robotics and Automation Letters, Vol. 3, Issue 4, pp. 3113-3120, 2018. DOI: 10.1109/LRA.2018.2849607PDFSlides
  • K. Sugiura, “SuMo-SS: Submodular Optimization Sensor Scattering for Deploying Sensor Networks by Drones”, IEEE Robotics and Automation Letters, Vol. 3, Issue 4, pp. 2963-2970, 2018. DOI: 10.1109/LRA.2018.2849604PDFSlides
  • N. Nishizuka, K. Sugiura, Y. Kubo, M. Den, and M. Ishii, “Deep Flare Net (DeFN) Model for Solar Flare Prediction”, The Astrophysical Journal, Vol. 858, Issue 2, 113 (8pp), 2018. DOI: 10.3847/1538-4357/aab9a7PDF
  • 奥川雅之, 伊藤暢浩, 岡田浩之, 植村渉, 高橋友一, 杉浦孔明, “ロボカップ西暦2050年を目指して”, 知能情報ファジィ学会誌, Vol. 29, No.2, pp. 42-54, 2017.
  • T. Nose, Y. Arao, T. Kobayashi, K. Sugiura, and Y. Shiga, “Sentence Selection Based on Extended Entropy Using Phonetic and Prosodic Contexts for Statistical Parametric Speech Synthesis”, IEEE Transactions on Audio, Speech, and Language Processing, Vol. 25, Issue 5, pp. 1107-1116, 2017.PDF
  • N. Nishizuka, K. Sugiura, Y. Kubo, M. Den, S. Watari and M. Ishii, “Solar Flare Prediction Model with Three Machine-learning Algorithms using Ultraviolet Brightening and Vector Magnetogram”, The Astrophysical Journal, Vol. 835, Issue 2, 156 (10pp), 2017.PDF
  • S. Takeuchi, K. Sugiura, Y. Akahoshi, and K. Zettsu, “Spatio-Temporal Pseudo Relevance Feedback for Scientific Data Retrieval,” IEEJ Trans., Vol. 12, Issue 1, pp. 124-131, 2017.PDF
  • K. Lwin, K. Sugiura, and K. Zettsu, “Space-Time Multiple Regression Model for Grid-Based Population Estimation in Urban Areas,” International Journal of Geographical Information Science, Vol. 30, No. 8, pp. 1579-1593, 2016.
  • 杉浦孔明, “模倣学習における確率ロボティクスの新展開”, システム制御情報学会誌, Vol. 60, No. 12, pp. 521-527, 2016.PDF
  • 杉浦孔明, “ロボットによる大規模言語学習に向けて -実世界知識の利活用とクラウドロボティクス基盤の構築-“, 計測と制御, Vol. 55, No. 10, pp. 884-889, 2016.PDF
  • 杉浦孔明, “ビッグデータの利活用によるロボットの音声コミュニケーション基盤構築”, 電子情報通信学会誌, Vol. 99, No. 6, pp. 500-504, 2016.PDF
  • B. T. Ong, K. Sugiura, and K. Zettsu, “Dynamically Pre-trained Deep Recurrent Neural Networks using Environmental Monitoring Data for Predicting PM2.5,” Neural Computing and Applications, Vol. 27, Issue 6, pp. 1553–1566, 2016.PDF
  • 杉浦孔明, “ロボカップ@ホーム: 人と共存するロボットのベンチマークテスト”, 人工知能, Vol. 31, No. 2, pp. 230-236, 2016.PDF
  • L. Iocchi, D. Holz, J. Ruiz-del-Solar, K. Sugiura, and T. van der Zant, “RoboCup@Home: Analysis and Results of Evolving Competitions for Domestic and Service Robots,” Artificial Intelligence, Vol. 229, pp. 258-281, 2015.
  • K. Sugiura, Y. Shiga, H. Kawai, T. Misu and C. Hori, “A Cloud Robotics Approach towards Dialogue-Oriented Robot Speech,” Advanced Robotics, Vol. 29, Issue 7, pp. 449-456, 2015.PDF
  • 杉浦孔明, 岩橋直人, 芳賀麻誉美, 堀智織, “観光スポット推薦アプリ「京のおすすめ」を用いた長期実証実験”, 観光と情報, Vol. 10, No. 1, pp. 15-24, 2014.PDF
  • M. Dong, T. Kimata, K. Sugiura and K. Zettsu, “Quality-of-Experience (QoE) in Emerging Mobile Social Networks,” IEICE Transactions on Information and Systems, Vol.E97-D, No.10, pp. 2606-2612, 2014.PDF
  • 稲邑哲也, タンジェフリートゥチュアン, 萩原良信, 杉浦孔明, 長井隆行, 岡田浩之, “大規模長時間のインタラクションを可能にするロボカップ@ホームシミュレーションの構想とその基盤技術”, 日本知能情報ファジィ学会誌, Vol.26, No.3, pp. 698-709, 2014.PDF
  • 杉浦孔明, 長井隆行, “ロボカップ@ホームにおける日用品マニピュレーション”, 日本ロボット学会誌, Vol. 31, No. 4, pp. 370-375, 2013.PDF
  • 杉浦孔明, “ロボット対話 -実世界情報を用いたコミュニケーションの学習-“, 人工知能学会誌, Vol. 27 No. 6, pp. 580-586, 2012.
  • 柏岡秀紀, 翠輝久, 水上悦雄, 杉浦孔明, 岩橋直人, 堀智織, “観光案内への音声対話システムの活用”, 情報処理学会デジタルプラクティス, Vol. 3, No. 4, pp. 254-261, 2012.PDF
  • 杉浦孔明, “ロボカップ道しるべ第8回「ロボカップ@ホームリーグ」”, 情報処理, Vol. 53, No. 3, pp. 250-261, 2012.PDF
  • 中村友昭, アッタミミムハンマド, 杉浦孔明, 長井隆行, 岩橋直人, 戸田智基, 岡田浩之, 大森隆司, “拡張モバイルマニピュレーションのための新規物体の学習”, 日本ロボット学会誌, Vol.30, No.2, pp. 213-224, 2012.
  • T. Nakamura, K. Sugiura, T. Nagai, N. Iwahashi, T. Toda, H. Okada, T. Omori, “Learning Novel Objects for Extended Mobile Manipulation”, Journal of Intelligent and Robotic Systems, Vol. 66, Issue 1-2 , pp 187-204. 2012.PDF
  • K. Sugiura, N. Iwahashi, H. Kawai, S. Nakamura, “Situated Spoken Dialogue with Robots Using Active Learning”, Advanced Robotics, Vol.25, No.17, pp. 2207-2232, 2011.PDF
  • T. Misu, K. Sugiura, T. Kawahara, K. Ohtake, C. Hori, H. Kashioka, H. Kawai and S. Nakamura, “Modeling Spoken Decision Support Dialogue and Optimization of its Dialogue Strategy”, ACM Transactions on Speech and Language Processing, Vol. 7, Issue 3, pp.10:1-10:18, 2011.
  • K. Sugiura, N. Iwahashi, H. Kashioka, and S. Nakamura, “Learning, Generation, and Recognition of Motions by Reference-Point-Dependent Probabilistic Models”, Advanced Robotics, Vol. 25, No. 6-7, pp. 825-848, 2011.PDF
  • X. Zuo, N. Iwahashi, K. Funakoshi, M. Nakano, R. Taguchi, S. Matsuda, K. Sugiura, and N. Oka, “Detecting Robot-Directed Speech by Situated Understanding in Physical Interaction”, Journal of the Japanese Society for Artificial Intelligence, Vol.25, No.6, pp. 670-682, 2010.PDF
  • 杉浦孔明, 岩橋直人, 柏岡秀紀, 中村哲, “言語獲得ロボットによる発話理解確率の推定に基づく物体操作対話”, 日本ロボット学会誌, Vol. 28, No. 8, pp. 978-988, 2010.PDF
  • K. Sugiura, H. Kawakami, and O. Katai, “Simultaneous Design Method of the Sensory Morphology and Controller of Mobile Robots”, Electrical Engineering in Japan, Vol. 172, Issue 1, pp 48-57, 2010.
  • T. Taniguchi, N. Iwahashi, K. Sugiura, and T. Sawaragi, “Constructive Approach to Role-Reversal Imitation Through Unsegmented Interactions”, Journal of Robotics and Mechatronics, Vol.20, No.4, pp. 567-577, 2008.
  • 杉浦孔明,川上浩司,片井修, “移動ロボットにおけるセンサ形態と制御系の同時設計法”, 電気学会論文誌C, Vol. 128-C, No. 7, pp. 1154-1161, 2008.PDF
  • K. Sugiura, T. Shiose, H. Kawakami, and O. Katai, “Co-evolution of Sensors and Controllers”, IEEJ Trans. EIS, Vol. 124-C, pp. 1938-1943, 2004.

国際会議

  • Y. Wada, K. Kaneda, D. Saito, and K. Sugiura, “Polos: Multimodal Metric Learning from Human Feedback for Image Captioning”, CVPR, 2024, to appear.
  • Y. Wada, K. Kaneda, and K. Sugiura, “JaSPICE: Automatic Evaluation Metric Using Predicate-Argument Structures for Image Captioning Models”, CoNLL, 2023. (acceptance rate = 28%) PDF
  • Y. Iioka, Y. Yoshida, Y. Wada, S. Hatanaka, and K. Sugiura, “Multimodal Diffusion Segmentation Model for Object Segmentation from Manipulation Instructions”, IEEE/RSJ IROS, pp. 7590-7597, 2023. PDF
  • S. Otsuki, S. Ishikawa, and K. Sugiura, “Prototypical Contrastive Transfer Learning for Multimodal Language Understanding”, IEEE/RSJ IROS, pp. 25-32, 2023. PDF
  • R. Korekata, M. Kambara, Y. Yoshida, S. Ishikawa, Y. Kawasaki, M. Takahashi, and K. Sugiura, “Switching Head–Tail Funnel UNITER for Dual Referring Expression Comprehension with Fetch-and-Carry Tasks”, IEEE/RSJ IROS, pp. 3865-3872, 2023. PDF
  • K. Kaneda, R. Korekata, Y. Wada, S. Nagashima, M. Kambara, Y. Iioka, H. Matsuo, Y. Imai, T. Nishimura, and K. Sugiura, “DialMAT: Dialogue-Enabled Transformer with Moment-Based Adversarial Training”, CVPR 2023 Embodied AI Workshop, 2023.PDF
  • M. Kambara and K. Sugiura, “Fully Automated Task Management for Generation, Execution, and Evaluation: A Framework for Fetch-and-Carry Tasks with Natural Language Instructions in Continuous Space”, CVPR 2023 Embodied AI Workshop, 2023.PDF
  • K. Kaneda, Y. Wada, T. Iida, N. Nishizuka, Y. Kubo, K. Sugiura: “Flare Transformer: Solar Flare Prediction using Magnetograms and Sunspot Physical Features”, ACCV, pp. 1488-1503, 2022. (acceptance rate = 33.4%) PDF
  • T. Iida, T. Komatsu, K. Kaneda, T. Hirakawa, T. Yamashita, H. Fujiyoshi, K. Sugiura: “Visual Explanation Generation Based on Lambda Attention Branch Networks”, ACCV, pp. 3536-3551, 2022. (acceptance rate = 33.4%) PDF
  • H. Matsuo, S. Hatanaka, A. Ueda, T. Hirakawa, T. Yamashita, H. Fujiyoshi, K. Sugiura: “Collision Prediction and Visual Explanation Generation Using Structural Knowledge in Object Placement Tasks”, IEEE/RSJ IROS, 2022 [poster].
  • R. Korekata, Y. Yoshida, S. Ishikawa, K. Sugiura, “Switching Funnel UNITER: Multimodal Instruction Comprehension for Object Manipulation Tasks”: IEEE/RSJ IROS, 2022 [poster].
  • M. Kambara, K.Sugiura, “Relational Future Captioning Model for Explaining Likely Collisions in Daily Tasks”, IEEE ICIP, TP-V2.V13.14, 2022.PDF
  • S. Ishikawa, K. Sugiura, “Moment-based Adversarial Training for Embodied Language Comprehension”, IEEE ICPR, 523, 2022.PDF
  • T. Matsubara, S.Otsuki, Y. Wada, H. Matsuo, T. Komatsu, Y. Iioka, K. Sugiura, H. Saito, “Shared Transformer Encoder with Mask-based 3D Model Estimation for Container Mass Estimation”, IEEE ICASSP, pp.9142–9146, 2022.PDF
  • S. Matsumori, K. Shingyouchi, Y. Abe, Y. Fukuchi, K. Sugiura, M. Imai, “Unified Questioner Transformer for Descriptive Question Generation in Goal-Oriented Visual Dialogue”, IEEE ICCV, pp. 1898-1907, 2021. (acceptance rate = 25.9%) PDF
  • M. Kambara and K. Sugiura, “Case Relation Transformer: A Crossmodal Language Generation Model for Fetching Instructions”, IEEE RAL presented at IEEE/RSJ IROS, 2021.PDF
  • S. Ishikawa and K. Sugiura, “Target-dependent UNITER: A Transformer-Based Multimodal Language Comprehension Model for Domestic Service Robots”, IEEE RAL presented at IEEE/RSJ IROS, 2021.PDF
  • A. Magassouba, K. Sugiura, and H. Kawai, “CrossMap Transformer: A Crossmodal Masked Path Transformer Using Double Back-Translation for Vision-and-Language Navigation”, IEEE RAL presented at IEEE/RSJ IROS, 2021.PDF
  • H. Itaya, T. Hirakawa, T. Yamashita, H. Fujiyoshi and K. Sugiura, “Visual Explanation using Attention Mechanism in Actor-Critic-based Deep Reinforcement Learning”, IEEE IJCNN, 2021.PDF
  • T. Ogura, A. Magassouba, K. Sugiura, T. Hirakawa, T. Yamashita, H. Fujiyoshi, H. Kawai, “Alleviating the Burden of Labeling: Sentence Generation by Attention Branch Encoder-Decoder Network”, IEEE RAL presented at IEEE/RSJ IROS, 2020.PDF
  • P. Shen, X. Lu, K. Sugiura, S. Li, H. Kawai, “Compensation on x-vector for Short Utterance Spoken Language Identification”, Odyssey 2020 The Speaker and Language Recognition Workshop, pp. 47-52, Tokyo, Japan, 2020.PDF
  • A. Magassouba, K. Sugiura, H. Kawai, “A Multimodal Target-Source Classifier with Attention Branches to Understand Ambiguous Instructions for Fetching Daily Objects”, IEEE RAL presented at IEEE ICRA, 2020.PDF
  • A. Magassouba, K. Sugiura, A. Trinh Quoc, H. Kawai, “Understanding Natural Language Instructions for Fetching Daily Objects Using GAN-Based Multimodal Target-Source Classification”, IEEE Robotics and Automation Letters presented at IEEE/RSJ IROS, Macau, China, 2019.PDF
  • A. Magassouba, K. Sugiura, H. Kawai, “Multimodal Attention Branch Network for Perspective-Free Sentence Generation”, Conference on Robot Learning (CoRL), Osaka, Japan, 2019. (acceptance rate = 27.6%) PDF
  • A. Nakayama, A. Magassouba, K. Sugiura, H. Kawai: “PonNet: Object Placeability Classifier for Domestic Service Robots,” Third International Workshop on Symbolic-Neural Learning (SNL-2019), Tokyo, Japan, July 11-12, 2019 [poster].
  • A. Magassouba, K. Sugiura, H. Kawai, “A Multimodal Classifier Generative Adversarial Network for Carry and Place Tasks from Ambiguous Language Instructions”, IEEE Robotics and Automation Letters presented at IEEE/RSJ IROS, Madrid, Spain, 2018. IROS 2018 RoboCup Best Paper AwardPDFSlides
  • K. Sugiura, “SuMo-SS: Submodular Optimization Sensor Scattering for Deploying Sensor Networks by Drones”, IEEE Robotics and Automation Letters presented at IEEE/RSJ IROS, Madrid, Spain, 2018.PDFSlides
  • N. Nishizuka, K. Sugiura, Y. Kubo, M. Den, S. Watari and M. Ishii, “Solar Flare Prediction Using Machine Learning with Multiwavelength Observations”, In Proc. IAU Symposium 335, Exeter, UK, vol.13, pp.310-313, 2018.
  • K. Sugiura and H. Kawai, “Grounded Language Understanding for Manipulation Instructions Using GAN-Based Classification”, In Proc. IEEE ASRU, Okinawa, Japan, pp. 519-524, 2017.PDF
  • K. Sugiura and K. Zettsu, “Analysis of Long-Term and Large-Scale Experiments on Robot Dialogues Using a Cloud Robotics Platform”, In Proc. ACM/IEEE HRI, Christchurch, New Zealand, pp. 525-526, 2016.PDF
  • S. Takeuchi, K. Sugiura, Y. Akahoshi, and K. Zettsu, “Constrained Region Selection Method Based on Configuration Space for Visualization in Scientific Dataset Search,” In Proc. IEEE Big Data, vol. 2, pp. 2191-2200, 2015.PDF
  • K. Sugiura and K. Zettsu, “Rospeex: A Cloud Robotics Platform for Human-Robot Spoken Dialogues”, In Proc. IEEE/RSJ IROS, pp. 6155-6160, Hamburg, Germany, Oct 1, 2015.PDF
  • T. Nose, Y. Arao, T. Kobayashi, K. Sugiura, Y. Shiga, and A. Ito, “Entropy-Based Sentence Selection for Speech Synthesis Using Phonetic and Prosodic Contexts”, In Proc. Interspeech, pp. 3491-3495, Dresden, Germany, Sep. 2015.PDF
  • K. Lwin, K. Zettsu, and K. Sugiura, “Geovisualization and Correlation Analysis between Geotagged Twitter and JMA Rainfall Data: Case of Heavy Rain Disaster in Hiroshima”, In Proc. Second IEEE International Conference on Spatial Data Mining and Geographical Knowledge Services, Fuzhou, China, July 2015.PDF
  • B. T. Ong, K. Sugiura, and K. Zettsu, “Dynamic Pre-training of Deep Recurrent Neural Networks for Predicting Environmental Monitoring Data,” In Proc. IEEE BigData 2014, pp. 760-765, Washington DC, USA, Oct 30, 2014. (acceptance rate = 18.5%) PDF
  • B. T. Ong, K. Sugiura, and K. Zettsu, “Predicting PM2.5 Concentrations Using Deep Recurrent Neural Networks with Open Data,” In Proc. iDB Workshop 2014, Fukuoka, Japan, July 31, 2014.
  • D. Holz, J. Ruiz-del-Solar, K. Sugiura, S. Wachsmuth, “On RoboCup@Home – Past, Present and Future of a Scientific Competition for Service Robots”, In Proc. RoboCup Symposium, pp. 686-697, Joao Pessoa, Brazil, July 25, 2014.
  • D. Holz, L. Iocchi, J. Ruiz-del-Solar, K. Sugiura, and T. van der Zant, “RoboCup@Home | a competition as a testbed for domestic service robots,” In Proc. 1st International Workshop on Intelligent Robot Assistants, Padova, Italy, July 15, 2014.
  • S. Takeuchi, Y. Akahoshi, B. T. Ong, K. Sugiura, and K. Zettsu, “Spatio-Temporal Pseudo Relevance Feedback for Large-Scale and Heterogeneous Scientific Repositories,” In Proc. 2014 IEEE International Congress on Big Data, pp. 669-676, Anchorage, USA, July 1, 2014.PDF
  • K. Sugiura, Y. Shiga, H. Kawai, T. Misu and C. Hori, “Non-Monologue HMM-Based Speech Synthesis for Service Robots: A Cloud Robotics Approach,” In Proc. IEEE ICRA, pp.2237-2242. Hong Kong, China, June 3, 2014.PDF
  • J. Tan, T. Inamura, K. Sugiura, T. Nagai, and H. Okada, “Human-Robot Interaction between Virtual and Real Worlds: Motivation from RoboCup@Home,” In Proc. International Conference on Social Robotics, pp.239-248, Bristol, UK, Oct 27, 2013.
  • T. Inamura, J. Tan, K. Sugiura, T. Nagai, and H. Okada, “Development of RoboCup@Home Simulation towards Long-term Large Scale HRI,” In Proc. RoboCup Symposium, Eindhoven, The Netherlands, July 1, 2013.
  • R. Lee, K. Kim, K. Sugiura, K. Zettsu, Y. Kidawara, “Complementary Integration of Heterogeneous Crowd-sourced Datasets for Enhanced Social Analytics,” In Proc. IEEE MDM, vol. 2, pp. 234-243, Milan, Italy, June 3, 2013.PDF
  • K. Sugiura, R. Lee, H. Kashioka, K. Zettsu, and Y. Kidawara, “Utterance Classification Using Linguistic and Non-Linguistic Information for Network-Based Speech-To-Speech Translation Systems,” In Proc. IEEE MDM, vol. 2, pp. 212-216, Milan, Italy, June 3, 2013.PDF
  • K. Sugiura, Y. Shiga, H. Kawai, T. Misu and C. Hori, “Non-Monologue Speech Synthesis for Service Robots,” In Proc. Fifth Workshop on Gaze in HRI, Tokyo, Japan, March 3, 2013.
  • K. Sugiura, N. Iwahashi and H. Kashioka, “Motion Generation by Reference-Point-Dependent Trajectory HMMs,” In Proc. IEEE/RSJ IROS, pp.350-356, San Francisco, USA, September 25-30, 2011. 【IROS 2011 RoboCup Best Paper Award受賞】PDF
  • T. Misu, K. Sugiura, K. Ohtake, C. Hori, H. Kashioka, H. Kawai and S. Nakamura, “Modeling Spoken Decision Making Dialogue and Optimization of its Dialogue Strategy”, In Proc. SIGDIAL, pp.221-224, 2011.
  • T. Misu, K. Sugiura, K. Ohtake, C. Hori, H. Kashioka, H. Kawai and S. Nakamura, “Dialogue Strategy Optimization to Assist User’s Decision for Spoken Consulting Dialogue Systems”, In Proc. IEEE-SLT, pp.342-347, 2010.PDF
  • N. Iwahashi, K. Sugiura, R. Taguchi, T. Nagai, and T. Taniguchi, “Robots That Learn to Communicate: A Developmental Approach to Personally and Physically Situated Human-Robot Conversations”, In Proc. The 2010 AAAI Fall Symposium on Dialog with Robots, pp. 38-43, Arlington, Virginia, USA, November 11-13, 2010.PDF
  • K. Sugiura, N. Iwahashi, H. Kawai, and S. Nakamura, “Active Learning for Generating Motion and Utterances in Object Manipulation Dialogue Tasks”, In Proc. The 2010 AAAI Fall Symposium on Dialog with Robots, pp. 115-120, Arlington, Virginia, USA, November 11-13, 2010.PDF
  • K. Sugiura, N. Iwahashi, H. Kashioka, and S. Nakamura, “Active Learning of Confidence Measure Function in Robot Language Acquisition Framework”, In Proc. IEEE/RSJ IROS, pp. 1774-1779, Taipei, Taiwan, Oct 18-22, 2010.PDF
  • X. Zuo, N. Iwahashi, R. Taguchi, S. Matsuda, K. Sugiura, K. Funakoshi, M. Nakano, and N. Oka, “Detecting Robot-Directed Speech by Situated Understanding in Physical Interaction”, In Proc. IEEE RO-MAN, pp. 643-648, 2010.PDF
  • M. Attamimi, A. Mizutani, T. Nakamura, K. Sugiura, T. Nagai, N. Iwahashi, H. Okada, and T. Omori, “Learning Novel Objects Using Out-of-Vocabulary Word Segmentation and Object Extraction for Home Assistant Robots”, In Proc. IEEE ICRA, pp. 745-750, Anchorage, Alaska, USA, May 3-8, 2010. 【2011年 ロボカップ研究賞受賞(ロボカップ日本委員会)】PDF
  • X. Zuo, N. Iwahashi, R. Taguchi, S. Matsuda, K. Sugiura, K. Funakoshi, M. Nakano, and N. Oka, “Robot-Directed Speech Detection Using Multimodal Semantic Confidence Based on Speech, Image, and Motion”, In Proc. IEEE ICASSP, pp. 2458-2461, Dallas, Texas, USA, March 14-19, 2010.PDF
  • T. Misu, K. Sugiura, T. Kawahara, K. Ohtake, C. Hori, H. Kashioka, and S. Nakamura, “Online Learning of Bayes Risk-Based Optimization of Dialogue Management for Document Retrieval Systems with Speech Interface”, In Proc. IWSDS, 2009.
  • K. Sugiura, N. Iwahashi, H. Kashioka, and S. Nakamura, “Bayesian Learning of Confidence Measure Function for Generation of Utterances and Motions in Object Manipulation Dialogue Task”, In Proc. Interspeech, pp. 2483-2486, Brighton, UK, September, 2009.PDF
  • N. Iwahashi, R. Taguchi, K. Sugiura, K. Funakoshi, and M. Nakano, “Robots that Learn to Converse: Developmental Approach to Situated Language Processing”, In Proc. International Symposium on Speech and Language Processing, pp. 532-537, China, August, 2009.
  • K. Sugiura and N. Iwahashi, “Motion Recognition and Generation by Combining Reference-Point-Dependent Probabilistic Models”, In Proc. IEEE/RSJ IROS, pp. 852-857, Nice, France, September, 2008.PDF
  • K. Sugiura and N. Iwahashi, “Learning Object-Manipulation Verbs for Human-Robot Communication”, In Proc. Workshop on Multimodal Interfaces in Semantic Interaction, pp. 32-38, Nagoya, Japan, November, 2007.PDF
  • K. Sugiura, T. Nishikawa, M. Akahane, and O. Katai: “Autonomous Design of a Line-Following Robot by Exploiting Interaction between Sensory Morphology and Learning Controller”, In Proc. the 2nd Biomimetics International Conference, Doshisha, pp. 23-24, Kyoto, Japan, December, 2006
  • K. Sugiura, D. Matsubara, and O. Katai: “Construction of Robotic Body Schema by Extracting Temporal Information from Sensory Inputs”, In Proc. SICE-ICASE, pp. 302-307, Busan, Korea, October, 2006.PDF
  • M. Akahane, K. Sugiura, T. Shiose, H. Kawakami, and O. Katai: “Autonomous Design of Robot Morphology for Learning Behavior Using Evolutionary Computation”, In Proc. 2005 Japan-Australia Workshop on Intelligent and Evolutionary Systems, Hakodate, Japan, CD-ROM, 2005.
  • K. Sugiura, M. Akahane, T. Shiose, K. Shimohara, and O. Katai: “Exploiting Interaction between Sensory Morphology and Learning”, In Proc. IEEE-SMC, Hawaii, USA, pp. 883-888, 2005.PDF
  • K. Sugiura, T. Shiose, H. Kawakami, and O. Katai: “Co-evolution of Sensors and Controllers”, In Proc. 2003 Asia Pacific Symposium on Intelligent and Evolutionary Systems (IES2003), Kitakyushu, Japan, pp. 145-150, 2003.PDF
  • K. Sugiura, H. Suzuki, T. Shiose, H. Kawakami, and O. Katai: “Evolution of Rewriting Rule Sets Using String-Based Tierra”, In Proc. ECAL, Dortmund, Germany, pp. 69-77, 2003.PDF

受賞

  • 是方諒介, 第4回とめ研究所若手研究者懸賞論文 優秀賞, 2023年11月18日.
  • 長嶋隼矢, 是方諒介, 兼田寛大, 杉浦孔明, 第41回日本ロボット学会学術講演会 トヨタ自動車HSRコミュニティ優秀論文賞, 2023年9月12日.
  • K. Kaneda, R. Korekata, Y. Wada, S. Nagashima, M. Kambara, Y. Iioka, H. Matsuo, Y. Imai, T. Nishimura, K. Sugiura, CVPR 2023 Embodied AI Workshop DialFRED Challenge 優勝, 2023年6月19日.
  • M. Kambara, Y. Yoshida, K. Kaneda, S. Otsuki, R. Korekata, H. Matsuo, Y. Wada, W. Yang, K. Sugiura, Honorable Mention Award, REVERIE Challenge @ CSIG 2022, 2022年8月19日.
  • T. Matsubara, S. Otsuki, Y. Wada, H. Matsuo, T. Komatsu, Y. Iioka, K. Sugiura, H. Saito, Best performing solution for container capacity estimation and capacity and dimensions estimation and filling mass estimation, The CORSMAL challenge 2022, 2022年6月23日.
  • トヨタ自動車HSRコミュニティ2021年度総会 HSRコミュニティ優秀発表賞, 2022年3月24日.
  • トヨタ自動車HSRユーザ会2020 優秀研究賞, 2020年11月23日.
  • WRS2018パートナーロボットチャレンジ(バーチャルスペース)優勝 / 経済産業大臣賞, 2018年10月21日.
  • WRS2018 人工知能学会賞, 2018年10月21日
  • A. Magassouba, K. Sugiura, H. Kawai, IEEE/RSJ IROS 2018 RoboCup Best Paper Award, 2018年10月4日.
  • 杉浦孔明, マガスーバ アリー, 2018年度人工知能学会 全国大会優秀賞, 2018年7月26日.
  • RoboCup 2018世界大会 RoboCup@Home League Domestic Standard Platform 3位, 2018年6月21日.
  • WRS Partner Robot Challenge (Virtual Space) Pre-event 2018 準優勝, 2018年5月5日.
  • RoboCup 2017世界大会 RoboCup@Home League Domestic Standard Platform 準優勝, 2017年7月30日.
  • RoboCup 2017世界大会 RoboCup@Home League Open Source Software Award, 2017年7月30日.
  • トヨタ自動車共同研究成果報告会 優秀成果賞, 2017年2月28日.
  • RoboCup 2016世界大会 @HomeリーグInnovation Award, 2016年7月3日.
  • トヨタHSRハッカソン2015 優勝, 2015年9月2日.
  • 杉浦孔明, NICT合同研究交流会 研究奨励賞(所内表彰), 2014年7月28日.
  • RoboCup 2012世界大会 @Homeリーグ準優勝, 2012年6月23日.
  • ロボカップジャパンオープン2012 @ホームリーグ優勝, 2012年5月5日.
  • K. Sugiura, N. Iwahashi, H. Kashioka, IROS 2011 RoboCup Best Paper Award, 2011年9月29日.
  • 人工知能学会賞@ロボカップジャパンオープン, 2011年5月5日.
  • ロボカップジャパンオープン2011 @ホームリーグ優勝, 2011年5月5日.
  • M. Attamimi, A. Mizutani, T. Nakamura, K. Sugiura, T. Nagai, N. Iwahashi, H. Okada, T. Omori, ロボカップ日本委員会 ロボカップ研究賞, 2011年5月3日.
  • RoboCup 2010世界大会 @Homeリーグ優勝, 2010年6月24日.
  • 日本ロボット学会賞@ロボカップジャパンオープン「家庭内での作業に適した移動機構と多様なセンサーを持つロボット」, 2010年5月4日.
  • ロボカップジャパンオープン2010 @ホームリーグ優勝, 2010年5月4日.
  • RoboCup 2009 @Homeリーグ準優勝, 2009年7月5日.
  • ロボカップ 人工知能学会賞(「参照点に依存した確率モデルに基づく物体操作の実時間学習手法」), 2009年5月10日.
  • ロボカップジャパンオープン2009 @ホームリーグ優勝, 2009年5月10日.
  • 杉浦孔明, 平成19年度 電気学会 電子・情報・システム部門大会奨励賞, 2008年8月.
  • RoboCup 2008世界大会 @Homeリーグ優勝, 2008年7月.
  • ロボカップジャパンオープン2008 @ホームリーグ優勝, 2008年5月.

Book Chapters

  • A. Magassouba, K. Sugiura, and H. Kawai: “Latent-Space Data Augmentation for Visually-Grounded Language Understanding”, Advances in Artificial Intelligence (ISBN 978-3-030-39877-4), Ohsawa, Y., Yada, K., Ito, T., Takama, Y., Sato-Shimokawara, E., Abe, A., Mori, J., Matsumura, N. (Eds.), Springer, Vol. 1128 AISC, pp. 179-187, 2020.Download
  • アンジェロ カンジェロシ, マシュー シュレシンジャー(著), 岡田浩之,谷口忠大,萩原良信,荒川直哉,長井隆行,尾形哲也,稲邑哲也,岩橋直人,杉浦孔明,牧野武文(訳): “発達ロボティクスハンドブック ロボットで探る認知発達の仕組み”, 2019.
  • 人工知能学会(編), 人工知能学大事典, 「模倣学習」, 共立出版, pp. 1039–1041, 2017.
  • K. Sugiura, S. Behnke, D. Kulic, and K. Yamazaki (eds): “Special Issue on Machine Learning and Data Engineering in Robotics”, Advanced Robotics, Vol. 30, Issue 11-12, May 10, 2016.PDF
  • R. A. C. Bianchi, H. Levent Akin, S. Ramamoorthy, and K. Sugiura (eds): “RoboCup 2014: Robot World Cup XVIII”, Lecture Notes in Computer Science 8992 (ISBN 978-3-319-18614-6), Springer, July 15, 2014.
  • M. Attamimi, T. Nakamura, K. Sugiura, T. Nagai, and N. Iwahashi, “Learning Novel Objects for Domestic Service Robots”, The Future of Humanoid Robots: Research and Applications (ISBN 978-953-307-951-6), InTech, pp. 257-276, 2012.
  • T. Misu, K. Sugiura, T. Kawahara, K. Ohtake, C. Hori, H. Kashioka and S. Nakamura: “Online learning of Bayes Risk-based Optimization of Dialogue Management for Document Retrieval Systems with Speech Interface (Chapter 2)”, Spoken Dialogue Systems Technology and Design (ISBN 978-1441979339), Springer, pp. 29-62, 2010.
  • K. Sugiura, N. Iwahashi, H. Kashioka, and S. Nakamura: “Statistical Imitation Learning in Sequential Object Manipulation Tasks”, Advances in Robot Manipulators, Ernest Hall (Ed.), InTech, pp. 589-606, 2010.Download

国内会議

  • 小槻誠太郎, 飯田紡, デュブレフェリックス, 平川翼, 山下隆義, 藤吉弘亘, 杉浦孔明: “Layer-Wise Relevance Propagation for ResNet: 保全公理を満たす視覚的説明生成”, 2024年度 人工知能学会全国大会, to appear.
  • 是方諒介, 兼田寛大, 長嶋隼矢, 今井悠人, 杉浦孔明: “大規模言語モデルを用いたSwitching機構付きマルチモーダル検索モデルに基づく生活支援ロボットによる物体操作”, 2024年度 人工知能学会全国大会, to appear.
  • 松尾榛夏, 神原元就, 杉浦孔明: “マルチモーダル基盤モデルと劣モジュラ最適化に基づく移動ロボットの環境探索”, 2024年度 人工知能学会全国大会, to appear.
  • Félix Doublet, Seitaro Otsuki, Tsumugi Iida, Komei Sugiura: “C³-LRP: Visual Explanation Generation based on Layer-Wise Relevance Propagation for ResNet”, 2024年度 人工知能学会全国大会, to appear.
  • 今井悠人, 兼田寛大, 是方諒介, 杉浦孔明: “マルチモーダル基盤モデルと緩和対照損失を用いた大規模屋内検索エンジン”, 2024年度 人工知能学会全国大会, to appear.
  • 齋藤大地, 神原元就, 九曜克之, 杉浦孔明: “マルチモーダルLLMおよび視覚言語基盤モデルに基づく大規模物体操作データセットにおけるタスク成功判定”, 2024年度 人工知能学会全国大会, to appear.
  • 長嶋隼矢, 兼田寛大, 田口美紗, 平田雅之, 杉浦孔明: “Retention機構に基づく頭蓋内脳波の分類とBMIの構築”, 2024年度 人工知能学会全国大会, to appear.
  • 西村喬行, 九曜克之, 神原元就, 杉浦孔明: “マルチモーダル基盤モデルと最適輸送を用いたポリゴンマッチングによる参照表現セグメンテーション”, 2024年度 人工知能学会全国大会, to appear.
  • 平野愼之助, 飯田紡, 杉浦孔明: “Attention Lattice Adapter: 視覚言語基盤モデルのための説明生成”, 2024年度 人工知能学会全国大会, to appear.
  • 松田一起, 和田唯我, 杉浦孔明: “ハルシネーションに頑健な画像キャプション生成の自動評価”, 2024年度 人工知能学会全国大会, to appear.
  • 九曜克之, 飯岡雄偉, 杉浦孔明: “PORTER: 最適輸送を用いたPolygon Matching に基づく参照表現セグメンテーション”, 言語処理学会第30回年次大会, P7-16, 2024.PDF
  • 和田唯我, 兼田寛大, 齋藤大地, 杉浦孔明: “Polos: 画像キャプション生成における教師あり自動評価尺度”, 言語処理学会第30回年次大会, D10-6, 2024.PDF
  • 飯田紡, 小槻誠太郎, 平川翼, 山下隆義, 藤吉弘亘, 杉浦孔明: “クラック分類タスクにおけるLRP for Branch Networksを用いた視覚的説明生成”, 第31回インタラクティブ情報アクセスと可視化マイニング研究会, 2023.PDF
  • 齋藤大地, 和田唯我, 兼田寛大, 杉浦孔明: “マルチモーダル情報に基づく画像説明文の教師あり自動評価”, 第31回インタラクティブ情報アクセスと可視化マイニング研究会, 2023.PDF
  • 兼田寛大, 長嶋隼矢, 是方諒介, 杉浦孔明: “MultiRankIt: ランキング学習と大規模言語モデルによる物理世界検索”, 第41回日本ロボット学会学術講演会, 2K1-01, 2023.PDF
  • 是方諒介, 和田唯我, 兼田寛大, 長嶋隼矢, 杉浦孔明: “DialMAT: 敵対的摂動に基づく対話的Vision-and-Language Navigation”, 第41回日本ロボット学会学術講演会, 1K3-04, 2023.PDF
  • 今井悠人, 飯岡雄偉, 畑中駿平, 九曜克之, 杉浦孔明: “マルチモーダル基盤モデルと拡散モデルに基づく対象物体の参照表現セグメンテーション”, 第41回日本ロボット学会学術講演会, 2K1-06, 2023.PDF
  • 長嶋隼矢, 是方諒介, 兼田寛大, 杉浦孔明: “マルチモーダル基盤モデルによる対象物体抽出に基づく日常物体検索および物体操作”, 第41回日本ロボット学会学術講演会, 2J1-01, 2023.PDF
  • 西村喬行, 松尾榛夏, 杉浦孔明: “視覚的基盤モデルを用いたTrimodal Cross-Attentional Transformerに基づく再配置対象の検出”, 第41回日本ロボット学会学術講演会, 1K4-08, 2023.PDF
  • 平野慎之助, 小松拓実, 和田唯我, 神原元就, 畑中駿平, 平川翼, 山下隆義, 藤吉弘亘, 杉浦孔明: “ENCHANT: 大規模言語モデルを用いた仮説生成に基づくクロスモーダル説明文生成”, 第41回日本ロボット学会学術講演会, 1K4-03, 2023.PDF
  • 松田一起, 小槻誠太郎, 杉浦孔明: “マルチモーダル言語理解タスクにおけるDual ProtoNCEに基づくドメイン適応と大規模言語モデルを用いた指示文理解”, 第41回日本ロボット学会学術講演会, 3J1-01, 2023.PDF
  • 楊巍, 植田有咲, 杉浦孔明: “複数粒度のマルチモダル情報を用いたテキスト付き画像の説明文生成”, 2023年度 人工知能学会全国大会, 2G5-OS-21e-03, 2023.PDF
  • 神原元就, 杉浦孔明: “マルチモーダル言語処理に基づくfetch-and-carryタスクの自動化と実行”, 2023年度 人工知能学会全国大会, 2I6-OS-4a-03, 2023.PDF
  • 兼田寛大, 神原元就, 杉浦孔明: “Learning to Rank Physical Objects: ランキング学習による物理世界検索エンジン”, 2023年度 人工知能学会全国大会, 3G1-OS-24a-01, 2023.PDF
  • 畑中駿平, 楊巍, 九曜克之, 細見直希, 翠輝久, 山田健太郎, 杉浦孔明: “市街地での移動指示文に基づく目標領域予測”, 2023年度 人工知能学会全国大会, 2M6-GS-10-03, 2023.PDF
  • 飯岡雄偉, 吉田悠, 和田唯我, 畑中駿平, 杉浦孔明: “生活支援タスクにおける大規模視覚言語モデルと拡散確率モデルを用いた参照表現セグメンテーション”, 2023年度 人工知能学会全国大会, 3G5-OS-24b-04, 2023.PDF
  • 小槻誠太郎, 石川慎太朗, 杉浦孔明: “マルチモーダル言語理解タスクにおけるDual ProtoNCEに基づく転移学習”, 2023年度 人工知能学会全国大会, 2G1-OS-21c-04, 2023.PDF
  • 小松拓実, 神原元就, 畑中駿平, 松尾榛夏, 平川翼, 山下隆義, 藤吉弘亘, 杉浦孔明: “Nearest Neighbor Future Captioning:物体配置タスクにおける衝突リスクに関する説明文生成”, 2023年度 人工知能学会全国大会, 3G1-OS-24a-05, 2023.PDF
  • 是方諒介, 神原元就, 吉田悠, 石川慎太朗, 川崎陽祐, 髙橋正樹, 杉浦孔明: “Switching Head–Tail Funnel UNITERによる対象物体および配置目標に関する指示文理解と物体操作”, 2023年度 人工知能学会全国大会, 2G4-OS-21d-01, 2023.PDF
  • 松尾榛夏, 石川慎太朗, 杉浦孔明: “物体再配置タスクのためのCo-Scale Cross-Attentional Transformer”, 2023年度 人工知能学会全国大会, 4G3-OS-24d-02, 2023.PDF
  • 田中励雄, 和田唯我, 杉浦孔明: “シーングラフに基づく画像キャプション生成モデルの自動評価と解析”, 2023年度 人工知能学会全国大会, 4G2-OS-24c-04, 2023.PDF
  • W. Yang, A. Ueda, and K. Sugiura: “Multimodal Encoder with Gated Cross-attention for Text-VQA Tasks”, 言語処理学会第29回年次大会, B7-2, 2023.PDF
  • 石川慎太朗, 杉浦孔明: “ゲート付き相互注意を用いたエンコーダ・デコーダによる感情に基づく絵画説明文生成”, 言語処理学会第29回年次大会, P2-4, 2023.PDF
  • 植田有咲, Wei Yang, 杉浦孔明: “マルチモーダルOCR特徴を用いたDynamic Pointer Networkによるテキスト付き画像説明文生成”, 言語処理学会第29回年次大会, P2-3, 2023.PDF
  • 和田唯我, 兼田寛大, 杉浦孔明: “JaSPICE: 日本語における述語項構造に基づく画像キャプション生成モデルの自動評価尺度”, 言語処理学会第29回年次大会, B8-3, 2023.PDF
  • 佐久間唯太, 前川知行, 柴田遼一, 植田有咲, 杉浦孔明, 今井倫太: “対話的画像修正による好み推定に向けたインターフェースの検討”, 研究報告ヒューマンコンピュータインタラクション, Vol. 2022-HCI-200, No. 17, pp. 1-5, 2022.
  • 九曜克之, 和田唯我, 兼田寛大, 飯田紡, 西塚直人, 久保勇樹, 杉浦孔明: “Flare Transformer Regressor: Masked Autoencoder と Informer Decoder に基づく太陽フレア予測”, 第21回情報科学技術フォーラム, CH-005, 2022.PDF
  • 小松拓実, 飯田紡, 兼田寛大, 平川翼, 山下隆義, 藤吉 弘亘, 杉浦孔明: “Saliency Guided Training を使用したLambda Attention Branch Networks による視覚的説明生成”, 第21回情報科学技術フォーラム, CH-008, 2022.PDF
  • 和田唯我, 兼田寛大, 飯田紡, 西塚直人, 久保勇樹, 杉浦孔明: “Flareformer: 磁場画像および物理特徴量の統合による大規模太陽フレア予測”, 第21回情報科学技術フォーラム, CH-002, 2022. PDF
  • 畑中駿平, Wei Yang, 細見直希, 翠輝久, 山田健太郎, 杉浦孔明: “市街地での移動指示理解タスクにおけるUNITER Regressorによる目標位置予測”, 第126回 知識ベースシステム研究会, 2022. PDF
  • 神原元就, 杉浦孔明: “記号接地されたfetch-and-carryタスクの自動化と実行”, 第40回日本ロボット学会学術講演会, 4I1-01, 2022.PDF
  • 小槻誠太郎, 石川慎太朗, 杉浦孔明: “TDP-MATに基づく実画像を対象とした物体操作指示理解”, 第40回日本ロボット学会学術講演会, 4I1-02, 2022.PDF
  • 是方諒介, 吉田悠, 石川慎太朗, 杉浦孔明: “物体操作タスクにおけるSwitching Funnel UNITERによる対象物体および配置目標に関する指示文理解”, 第40回日本ロボット学会学術講演会, 4F3-05, 2022.PDF
  • 飯岡雄偉, 神原元就, 杉浦孔明: “物体配置タスクにおける危険性のクロスモーダル説明生成”, 第40回日本ロボット学会学術講演会, 4I1-08, 2022.PDF
  • 松尾榛夏, 畑中駿平, 平川翼, 山下隆義, 藤吉弘亘, 杉浦孔明: “物体配置タスクにおける構造的知識を用いた衝突予測および視覚的説明生成”, 第40回日本ロボット学会学術講演会, 4F3-03, 2022.PDF
  • 石川慎太朗, 杉浦孔明: “Vision-and-Language Navigationタスクにおける敵対的サブゴール生成”, 2022年度 人工知能学会全国大会, 2O1-GS-7, 2022.PDF
  • 神原元就, 杉浦孔明: “日常タスクにおける将来イベントのクロスモーダル説明文生成”, 2022年度 人工知能学会全国大会, 2O1-GS-7-02, 2022.PDF
  • 吉田悠, 石川慎太朗, 杉浦孔明: “生活支援ロボットによる物体操作タスクにおけるFunnel UNITERに基づく指示文理解”, 2022年度 人工知能学会全国大会, 2O4-GS-7, 2022.PDF
  • 飯田紡, 兼田寛大, 平川翼, 山下隆義, 藤吉弘亘, 杉浦孔明: “Lambda Attention Branch Networksによる視覚的説明生成”, 2022年度 人工知能学会全国大会, 2O1-GS-7, 2022.PDF
  • 兼田寛大, 飯田紡, 西塚直人, 久保勇樹, 杉浦孔明: “Flare Transformer: 磁場画像と物理特徴量を用いた太陽フレア予測”, 2022年度 人工知能学会全国大会, 2D6-GS-2, 2022.PDF
  • 神原元就, 杉浦孔明: “料理タスクにおける将来イベントのクロスモーダル説明文生成”, 第28回画像センシングシンポジウム 2022, SO3-24・IS3-24, 2022.PDF
  • 植田有咲, 杉浦孔明: “参照画像と修正指示文を用いた Multimodal Modulation によるファッション画像検索”, 第28回画像センシングシンポジウム 2022, SO3-27・IS3-27, 2022.PDF
  • 河合竹彦, 平川翼, 山下隆義, 藤吉弘亘, 杉浦孔明: “配置物体を考慮したAttention機構マルチモーダルネットワークによる衝突予測”, 第39回日本ロボット学会学術講演会, 2H4-03, 2021.
  • 飯田紡, 九曜克之, 石川慎太朗, 杉浦孔明: “物体指示理解タスクにおけるクロスモーダル言語生成に基づくデータ拡張”, 第39回日本ロボット学会学術講演会, 2H2-03, 2021.PDF
  • 畑中駿平, 上田雄斗, 植田有咲, 平川翼, 山下隆義, 藤吉弘亘, 杉浦孔明: “生活支援ロボットによる物体配置タスクにおける危険性予測および視覚的説明生成”, 第39回日本ロボット学会学術講演会, 1I4-02, 2021.PDF
  • 兼田寛大, 神原元就, 杉浦孔明: “Bilingual Case Relation Transformerに基づく複数言語による物体操作指示文生成”, 第39回日本ロボット学会学術講演会, 1I2-06, 2021.PDF
  • 石川慎太朗, 杉浦孔明: “Target-dependent UNITERに基づく対象物体に関する参照表現を含む物体操作指示理解”, 2021年度 人工知能学会全国大会, 4I2-GS-7c-04, 2021.PDF
  • 神原元就, 杉浦孔明: “Case Relation Transformerに基づく対象物体及び目標領域の参照表現を含む物体操作指示文生成”, 2021年度 人工知能学会全国大会, 4J1-GS-6d-05, 2021.PDF
  • 植田有咲, Aly Magassouba, 平川翼, 山下隆義, 藤吉弘亘, 杉浦孔明: “生活支援ロボットによる物体配置タスクにおけるTransformer PonNetに基づく危険性予測および可視化”, 2021年度 人工知能学会全国大会, 2J1-GS-8a-03, 2021.PDF
  • 板谷英典, 平川翼, 山下隆義, 藤吉弘亘, 杉浦孔明: “A3CにおけるAttention機構を用いた視覚的説明”, 2020年度 人工知能学会全国大会, 2J6-GS-2-04, 2020.
  • 小椋忠志, Magassouba Aly, 杉浦孔明, 平川翼, 山下隆義, 藤吉弘亘, 河井恒: “Multimodal Attention Branch Networkに基づく把持命令文の生成”, 2020年度 人工知能学会全国大会, 1Q3-GS-11-05, 2020.
  • 西塚直人, 久保勇樹, 杉浦孔明, 田光江, 石井守: “太陽フレアAI予報Deep Flare Netの運用化”, 第16回「宇宙環境シンポジウム」, pp. 61-64, 2020.
  • 杉浦孔明: “生活支援ロボットにおけるマルチモーダル言語処理”, 言語処理学会第26回年次大会, A1-4, 2020.
  • Aly Magassouba, Komei Sugiura, Hisashi Kawai: “A Multimodal Target-Source Classifier Model for Object Fetching from Natural Language Instructions”, 2019年度 人工知能学会全国大会, 2D3-E-4-03, 2019.PDF
  • 杉浦孔明, マガスーバ アリー, 河井恒: “生活支援ロボットにおけるGenerative Adversarial Netsを用いた曖昧な指示の理解”, 2018年度 人工知能学会全国大会, 2A3-04, 2018. 2018年度人工知能学会 全国大会優秀賞PDFSlides
  • 杉浦孔明, 河井恒: “Latent Classifier Generative Adversarial Netsによる動詞のない命令文理解”, 第35回日本ロボット学会学術講演会, 2I1-02, 2017.PDF
  • 西塚直人, 久保勇樹, 杉浦孔明, 田光江, 亘慎一: “機械学習を用いたリアルタイム太陽フレア予測”, 第13回「宇宙環境シンポジウム」講演論文集, pp. 103-106, 2016.
  • 杉浦孔明, 河井恒: “ばらまき型センサネット構築のためのマルチコプタの逐次行動計画”, 第34回日本ロボット学会学術講演会, 3Z1-02, 2016.PDF
  • 杉浦孔明: “劣モジュラ性を利用したドローンによるばらまき型センサ配置”, 2016年度 人工知能学会全国大会, 1O5-OS-22b-5, 2016.PDF
  • N. Nishizuka, Y. Kubo, K. Sugiura, M. Den, S. Watari, M. Ishii: “Solar Flare Prediction with Vector Magnetogram and Chromospheric Brightening using Machine-learning”, Japan Geoscience Union MEETING, PEM04-03, 2016.
  • 西塚直人, 久保勇樹, 田光江, 亘慎一, 石井守, 杉浦孔明: “太陽磁場観測による機械学習を用いた太陽フレア予報モデル開発”, 日本天文学会 春季年会, 2016.
  • 長井隆行, 谷口忠大, 尾形哲也, 岩橋直人, 杉浦孔明, 稲邑哲也, 岡田浩之: “記号創発ロボティクスによる人間機械コラボレーション基盤創成”, 第19回クラウドネットワークロボット研究会, pp.23-27, 2015.
  • 杉浦孔明: “ロボカップ@ホームの10年: インテリジェントホームロボティクスにおける標準問題の設計・成果・展望”, 第3回インテリジェントホームロボティクス研究会, 2015. Slides
  • K. Lwin, K. Sugiura and K. Zettsu: “Space-Time Multiple Regression Model for Grid Based Population Estimation: Case of Kobe City Metropolitan Area,” CSIS Days, pp. 34, 2015.
  • S. Takeuchi, K. Sugiura, Y. Akahoshi, and K. Zettsu: “Selective Reranking Considering Spatial Diversity for Scientific Data Search Systems”, WebDB Forum 2015.(査読有)
  • 杉浦孔明, 是津耕司: “Dynamic Pre-trainingを導入したDeep Neural Networkによる関節角時系列の予測”, 第33回日本ロボット学会学術講演会, RSJ2015AC1B2-08, 2015.PDF
  • 杉浦孔明, 是津耕司: “クラウドロボティクス基盤rospeexの長期実証実験と大規模ロボット対話データ の解析”, 第33回日本ロボット学会学術講演会, RSJ2015AC3D1-03, 2015.PDF
  • 能勢隆, 荒生侑介, 小林隆夫, 杉浦孔明, 志賀芳則: “統計的音声合成におけるエントロピーに基づく大規模学習文セット構築の評価”, 電子情報通信学会技術研究報告, vol.115, no.184, SP2015-57, pp.39-44, 2015.
  • 杉浦孔明, Ong Bun Theang, 是津耕司: “Deep Recurrent Neural Networkによる環境モニタリングデータの予測”, 2015年度 人工知能学会全国大会, 2C3-OS-06b-3 2015.PDF
  • 竹内伸一, 杉浦孔明, 赤星祐平, 是津耕司: “大規模異分野データ横断検索における時空間スコア計算法”, 2015年度 人工知能学会全国大会, 1G3-OS-08b-4, 2015.PDF
  • 杉浦孔明, 是津耕司: “日用品操作タスクにおけるRPD-HMMに基づく模倣学習”, 第2回インテリジェントホームロボティクス研究会, 2015.
  • 杉浦孔明, 堀智織, 是津耕司: “ホームロボットにおけるクラウド型音声対話システムの利活用”, 第1回インテリジェントホームロボティクス研究会, 2014.PDF
  • 杉浦孔明, 堀智織, 是津耕司: “音声対話向けクラウドロボティクス基盤rospeexの構築と長期実証実験”, 第32回日本ロボット学会学術講演会, RSJ2014AC3I2-05, 2014.PDF
  • 竹内伸一, 赤星祐平, Ong Bun Theang, 杉浦孔明, 是津耕司: “大規模異分野データ横断検索における時空間情報を用いた疑似適合性フィードバック”, 第28回人工知能学会全国大会, 2E5-OS-25b-2, 2014.PDF
  • 杉浦孔明, 是津耕司: “RPD-HMMに基づく逐次動作生成による物体操作の模倣学習”, 第28回人工知能学会全国大会, 1I5-OS-09b-5, 2014.PDF
  • 木全崇, 杉浦孔明, 董冕雄, 是津耕司: “Service-Controlled Networking: アプリケーション構造やユーザ要求に連動したネットワーク制御技術”, 第12回日本データベース学会年次大会, 2014.
  • 杉浦孔明, 岩橋直人, 芳賀麻誉美, 堀智織: “階層型評価構造に基づく観光スポット推薦システムの構築と長期実証実験”, 観光情報学会第8回研究発表会講演論文集, pp. 9-12, 2013.PDF
  • 杉浦孔明, 堀智織, 是津耕司: “rospeex:クラウド型音声コミュニケーションを実現するROS向けツールキット”, 信学技報(CNR2013-10), pp. 7-10, 2013.PDF
  • 杉浦孔明, 志賀芳則, 河井恒, 翠輝久, 堀智織: “サービスロボットのための非モノローグHMMによる音声合成”, 第31回日本ロボット学会学術講演会, 2C1-02, 2013.PDF
  • 杉浦孔明, 岩橋直人, 柏岡秀紀: “物体操作タスクのためのペナルティ項付き尤度最大化によるHMM軌道生成”, 第13回 計測自動制御学会システムインテグレーション部門講演会, pp. 2305-2306, 2012.PDF
  • 杉浦孔明, 岩橋直人, 柏岡秀紀: “物体操作タスクにおけるマクロパラメータを用いたHMM軌道生成”, 第30回日本ロボット学会学術講演会, 3N2-5, 2012.PDF
  • 山内祐輝, 杉浦孔明, Sakti Sakriani, 戸田智基, 中村哲: “物体操作タスクにおけるHMMを用いた障害物回避動作の生成”, 第12回計測自動制御学会 システムインテグレーション部門講演会, pp. 1614-1617, 2011.PDF
  • 杉浦孔明, 岩橋直人, 柏岡秀紀: “参照点に依存したトラジェクトリHMMによる動作生成”, 第29回日本ロボット学会学術講演会, 3P3-6, 2011.PDF
  • 大森隆司, 岡田浩之, 中村友昭, 長井隆行, 杉浦孔明, 岩橋直人: “RoboCup@home : 生活支援ベンチマークとしてのロボット競技”, 第28回日本ロボット学会学術講演会, 3B3-1, 2010.PDF
  • 杉浦孔明, 岩橋直人, 河井恒, 中村哲: “物体操作対話タスクにおける能動学習に基づく対話戦略最適化”, 第28回日本ロボット学会学術講演会, 1I2-3, 2010.PDF
  • 翠輝久, 杉浦孔明, 大竹清敬, 堀智織, 柏岡秀紀, 河井恒, 中村哲: “意思決定支援を行う音声対話における強化学習を用いた対話戦略の最適化”, 日本音響学会2010年秋季研究発表会, 2010.
  • 翠輝久, 杉浦孔明, 大竹清敬, 堀智織, 柏岡秀紀, 河井恒, 中村哲: “相談型対話のモデル化と対話戦略の最適化”, 情報処理学会 音声言語情報処理研究会, 2010.
  • 杉浦孔明, 岩橋直人, 柏岡秀紀, 中村哲: “日用品を扱う物体操作の模倣学習による動作の言語化”, 第24回人工知能学会全国大会, 1J1-OS13-6, 2010.PDF
  • 左祥, 岩橋直人, 田口亮, 松田繁樹, 杉浦孔明, 船越孝太郎, 中野幹生, 岡夏樹: “Detection of Robot-Directed Speech by Situated Understanding in Physical Interaction”, 第24回人工知能学会全国大会, 1J1-OS13-4, 2010.
  • 左祥,岩橋直人,田口亮,松田繁樹,杉浦孔明,船越孝太郎,中野幹生,岡 夏樹: “Robot-Directed Speech Detection by Situated Understanding in Physical Interaction”, HAIシンポジウム, 2B-3, 2009.
  • 翠輝久, 杉浦孔明, 河原達也, 大竹清敬, 堀智織, 柏岡秀紀, 中村哲: “ベイズリスクに基づく応答生成の最適化戦略のオンライン学習”, 日本音響学会2009年秋季研究発表会, 3-1-4, 2009.
  • X. Zuo, N. Iwahashi, R. Taguchi, S. Matsuda, K. Sugiura, K. Funakoshi, M. Nakano, and N. Oka, “Robot-Command Utterance Detection Using Multimodal Semantic Confidence Based on Speech, Image, and Motion”, 日本音響学会2009年秋季研究発表会, 2-1-14, 2009.
  • X. Zuo, N. Iwahashi, R. Taguchi, S. Matsuda, K. Sugiura, K. Funakoshi, M. Nakano, and N. Oka, “Robot-Command Utterance Detection in Object Manipulation Task Using Multimodal Semantic Confidence Based on Speech, Image, and Motion”, 第27回日本ロボット学会学術講演会, RSJ2009AC3C3-05, 2009.
  • 杉浦孔明, 岩橋直人, 柏岡秀紀, 中村哲: “言語獲得ロボットにおける応答戦略最適化のための確信度のベイズ学習”, 第27回日本ロボット学会学術講演会, RSJ2009AC1L2-07, 2009.PDF
  • 杉浦孔明, 岩橋直人: “対話戦略最適化としての発話理解確信度の能動学習”, 第23回人工知能学会全国大会, 1F2-OS7-9, 2009.PDF
  • 杉浦孔明, 岩橋直人: “物体操作タスクにおける発話理解確信度の推定に基づく発話と動作の生成”, 第36回知能システムシンポジウム, pp. 29-34, 2009.PDF
  • 杉浦孔明, 水谷了, 中村友昭, 長井隆行, 岩橋直人, 岡田浩之, 大森隆司: “音声からの未登録語切り出しと画像からの物体抽出の統合による新規物体の学習”, 第26回日本ロボット学会学術講演会, 1N1-05, 2008.PDF
  • 杉浦孔明, 岩橋直人: “参照点に依存した確率モデルを用いた連続動作の認識と生成”, 第22回人工知能学会全国大会, 3E3-6, 2008.PDF
  • 岡田浩之, 大森隆司, 岩橋直人, 長井隆行, 杉浦孔明: “ロボカップ@ホームにおける音声対話技術”, 第22回人工知能学会全国大会, 3E3-2, 2008.
  • 杉浦孔明, 岩橋直人: “参照点に依存した確率モデルの結合による動作の生成”, 第25回日本ロボット学会学術講演会, 1E32, 2007.PDF
  • 杉浦孔明, 川上浩司: “移動ロボットのための複数のタスク環境における学習に適した形態の設計法”, 2007年 電気学会 電子・情報・システム部門大会, pp. 118-124, 2007. 【平成19年度 電気学会 電子・情報・システム部門大会奨励賞受賞】PDF
  • 西川徳宏, 杉浦孔明, 塩瀬隆之, 川上浩司, 片井修: “ライントレーサにおける形態と制御系の同時設計”, 第19回自律分散システムシンポジウム, pp. 183-188, 2007.
  • 杉浦孔明,松原大輔,片井修: “影で形を計測する:時間差を利用したロボットセンサの位置推定”, 第12回創発システムシンポジウム, pp. 128-131, 2006.PDF
  • 松原大輔, 杉浦孔明, 下原勝憲, 片井修, 岡田美智男: “自律ロボットによるセンサ情報に基づく可塑的な身体図式の獲得”, 第33回知能システムシンポジウム, pp. 179-184, 2006.PDF
  • 杉浦孔明, 赤羽真, 塩瀬隆之, 下原勝憲, 片井修: “行動に基づく情報獲得に向けたセンサ形態の自律的獲得”, 第32回知能システムシンポジウム, pp. 105-110, 2005.PDF
  • 杉浦孔明, 松原大輔, 塩瀬隆之, 下原勝憲, 片井修: “ロボットにおける感覚運動統合のためのセンサ形態の自律的獲得”, 第17回自律分散システムシンポジウム, pp. 41-46, 2005.PDF
  • 杉浦孔明, 塩瀬隆之, 下原勝憲, 片井修: “ロボットは相互作用を”発見”できるか — センサ進化を用いた環境からの情報の獲得と利用 –“, 第5回AI若手の集い MYCOM2004, pp. 32-38, 2004.PDF
  • 杉浦孔明, 塩瀬隆之, 川上浩司, 片井修: “身体性を有するエージェントにおけるセンサとコントローラの進化”, 第31回知能システムシンポジウム, pp. 151-156, 2004.PDF
  • 杉浦孔明, 鈴木秀明, 塩瀬隆之, 川上浩司, 片井修: “文字列書き換え系における書き換え規則の進化”, 第4回AI若手の集い MYCOM2003, pp. 113-115, 2003.PDF
  • 杉浦孔明, 鈴木秀明, 塩瀬隆之, 川上浩司, 片井修: “自己複製文字列と書き換え規則の共進化”, 第30回知能システムシンポジウム, pp. 37-42, 2003.PDF

特許

  • 沈鵬, 杉浦孔明, 河井恒: “言語識別装置及び言語を判定する方法”, 特願2021-034054(2021年3月4日出願), 特開2021-092817(2021年6月17日公開).
  • マガスーバ アリー, 杉浦孔明, 河井恒: “対象物検索システム、対象物検索方法および学習済モデル”, 特願2019-095922(2019年5月22日出願), 特開2020-190930(2020年11月26日公開).
  • 沈鵬, 杉浦孔明, 河井恒: “言語識別装置及びそのためのコンピュータプログラム、並びに音声処理装置”, 特願2019-062346(2019年3月28日出願), 特開2020-160374(2020年10月1日公開).
  • 大沼侑司, 杉浦孔明: “把持装置、タグが付された容器、対象物把持プログラムおよび対象物把持方法”, 特願2018-096213(2018年5月18日出願), 特開2019-198945(2019年11月21日公開).
  • 杉浦孔明, 西塚直人, 河井恒, 石井守: “予測システムおよび予測手法”, 特願2018-090085(2018年5月8日出願), 特開2019-197323(2019年11月14日公開).
  • 杉浦孔明, 河井恒: “命令文推定システムおよび命令文推定方法”, 特願2017-172922(2017年9月8日出願), 特開2019-049604(2019年3月28日公開).
  • 杉浦孔明: “配置位置決定方法および配置位置決定システム”, 特願2016-101302(2016年5月20日出願), 特開2017-207420(2017年11月24日公開).
  • 杉浦孔明, 是津耕司, “学習装置、予測装置、学習方法、予測方法、およびプログラム”, 特願2015-221663(2015年11月11日出願), 特開2017-091278(2017年5月25日公開).
  • 志賀芳則, 大熊英男, 木村法幸, 杉浦孔明, 林輝昭, 水上悦雄, “ローカル言語資源の補強装置及びサービス提供設備装置”, 特願2012-191972 (2012年8月31日出願), 特開2014-048507(2014年3月17日公開). 国内特許第6281856号(2018年2月2日登録).
  • 志賀芳則, 大熊英男, 木村法幸, 杉浦孔明, 林輝昭, 水上悦雄, “単語登録装置及びそのためのコンピュータプログラム”, 特願2012-191971 (2012年8月31日出願), 特開2014-048506(2014年3月17日公開), 国内特許第6150268号(2017年6月2日登録).
  • 杉浦孔明, 大熊英男, 木村法幸, 志賀芳則, 林輝昭, 水上悦雄, “音声処理システム及び端末装置”, 特願2012-153941 (2012年7月9日出願), 特開2014-16475(2014年1月30日公開), 国内特許第5967569号(2016年7月15日登録).
  • 杉浦孔明, 岩橋直人, “観光スポット推薦装置およびプログラム”, 特願2010-224630 (2010年10月4日出願), 特開2012-079144(2012年4月19日公開), 国内特許第5565253号(2014年6月27日登録).
  • 翠輝久, 大竹清敬, 杉浦孔明, 堀智織, 柏岡秀紀, 中村哲, “学習システム、シミュレーション装置、および学習方法”, 特願2010-232355(2010年10月15日出願), 特開2012-038287(2012年2月23日公開), 国内特許第5545489号(2014年5月23日登録).
  • 翠輝久, 大竹清敬, 杉浦孔明, 堀智織, 柏岡秀紀, 中村哲, “対話装置、対話方法、およびプログラム”, 特願2010-119950 (2010年5月26日出願), 特開2011-248549(2011年12月8日公開).
  • 杉浦孔明, 岩橋直人, “情報処理装置,情報処理方法,プログラム及び対話システム”, 特願2009-204599 (2009年9月4日出願), 特開2011-054088(2011年3月17日公開).
  • 杉浦孔明, 岩橋直人, “軌道探索装置”, 特願2007-236561 (2007年9月12日出願), 特開2009-66692 (2009年4月2日公開).
  • 杉浦孔明, “センサ設計装置,センサ設計方法,センサ設計プログラム”, 特願2005-223343 (2005年8月1日出願), 特開2007-41723 (2007年2月15日公開).

学位論文

  • 飯田紡, “Attention Branchと関連度逆伝播に基づく視覚的説明生成モデルの構築”, 修士論文, 2024.
  • 兼田寛大, “Learning-To-Rank Approach for Identifying Everyday Objects Using a Physical-World Search Engine”, 修士論文, 2024.
  • 九曜克之, “生活支援ロボットのための参照表現理解モデルの構築”, 修士論文, 2024.
  • 畑中駿平, “市街地での移動指示文に基づく目標領域予測”, 修士論文, 2024.
  • 今井悠人, “マルチモーダル基盤モデルと拡散モデルに基づく対象物体の参照表現セグメンテーション”, 卒業論文, 2024.
  • 齋藤大地, “マルチモーダル情報に基づく画像説明文の教師あり自動評価”, 卒業論文, 2024.
  • 長嶋隼矢, “マルチモーダル基盤モデルによる対象物体抽出に基づく日常物体検索および物体操作”, 卒業論文, 2024.
  • 西村喬行, “視覚的基盤モデルを用いたTrimodal Cross-Attentional Transformerに基づく再配置対象の検出”, 卒業論文, 2024.
  • 平野愼之助, “Alternative Adapter Model: 視覚言語基盤モデルのための説明生成モデル”, 卒業論文, 2024.
  • 松田一起, “マルチモーダル言語理解タスクにおけるDual ProtoNCEに基づくドメイン適応と大規模言語モデルを用いた指示文理解”, 卒業論文, 2024.
  • 石川慎太朗, “Language Comprehension and Generation using Multimodal Transformers for User Support Systems”, 修士論文, 2023.
  • 植田有咲, “テキスト画像検索と説明文生成のための視覚言語モデルの構築”, 修士論文, 2023.
  • 神原元就, “Relational Future Captioning for Explaining Daily Tasks”, 修士論文, 2023.
  • 吉田悠, “生活支援ロボットのための参照表現理解モデルの構築”, 修士論文, 2023.
  • 飯岡雄偉, “生活支援タスクにおける大規模視覚言語モデルとDenoising Diffusion Probabilistic Modelを用いた参照表現セグメンテーション”, 卒業論文, 2023.
  • 小槻誠太郎, “マルチモーダル言語理解タスクにおけるDual ProtoNCEに基づく転移学習”, 卒業論文, 2023.
  • 小松拓実, “Nearest Neighbor Future Captioning: 物体配置タスクにおける衝突リスクに関する説明文生成”, 卒業論文, 2023.
  • 是方諒介, “Switching Head-Tail Funnel UNITERによる対象物体および配置目標に関する指示文理解と物体操作”, 卒業論文, 2023.
  • 松尾榛夏, “生活支援ロボットによるRearrangement Target DetectionのためのCo-Scale Cross-Attentional Image Transformer”, 卒業論文, 2023.
  • 和田唯我, “JaSPICE : 日本語における述語項構造に基づく画像キャプション生成モデルの自動評価尺度”, 卒業論文, 2023.
  • 飯田紡, “Lambda Attention Branch Networksによる視覚的説明生成”, 卒業論文, 2022.
  • 上田雄斗, “生活支援ロボットによる片付けタスクにおける複数の物体マスクに基づく把持姿勢推定の高精度化”, 卒業論文, 2022.
  • 兼田寛大, “Bilingual Case Relation Transformerに基づく複数言語による物体操作指示文生成”, 卒業論文, 2022.
  • 九曜克之, “参照表現セグメンテーションタスクのためのModulated Detection Transformer with Attention Branchesの構築”, 卒業論文, 2022.
  • 畑中駿平, “物体配置タスクにおける構造的知識を用いた衝突予測および視覚的説明生成”, 卒業論文, 2022.
  • 石川慎太朗, “Target-dependent UNITERに基づく対象物体に関する参照表現を含む物体操作指示理解”, 卒業論文, 2021.
  • 植田有咲, “生活支援ロボットによる物体配置タスクにおけるModel-free PonNetに基づく危険性予測および可視化”, 卒業論文, 2021.
  • 神原元就, “Case Relation Transformerに基づく対象物体及び目標領域の参照表現を含む物体操作指示文生成”, 卒業論文, 2021.