国際会議KICSS2025で、学生4名が発表し、2件受賞しました

The 20th international conference on Knowledge, Information and Creativity Support Systems (KICSS2025) において、本研究室から 学生4名が研究発表 を行いました。

そして、Outstanding Paper Award & Best Poster Awardを受賞しました。

  • Takano, T. Hayama, H. Cui, “Predicting Image Diffusion in Social Networks via Visual Interest Similarity,” in Proc. 20th International Conference on Knowledge, Information and Creativity Support Systems (KICSS 2025) ,pp.222-233 (2025).
  • Jia, H. Cui, T. Hayama, “HAR-DCWGAN: Dual-Conditional Wasserstein GAN for Human Activity Recognition Data Synthesis,” in Proc. 20th International Conference on Knowledge, Information and Creativity Support Systems (KICSS 2025),pp.234-242 (2025).[Outstanding Paper Award]
  • P. Kudagamage, T. Hayama, “Practical Evaluation of Mental Health Risk Prediction in University Students Using Consumer Smartwatches and Explainable Machine Learning,” in Proc. 20th International Conference on Knowledge, Information and Creativity Support Systems (KICSS 2025) ,pp.158-165 (2025).
  • Jyoboji, T. Hayama, “Bottom-Up Handwriting Recognition Using Motion Sensors on a Smartwatch,” in Proc. 20th International Conference on Knowledge, Information and Creativity Support Systems (KICSS 2025) ,pp.64-71 (2025).[Best Poseter Award]

SNS情報拡散に関する研究がIEICE Transactionsに掲載

なぜあの画像は「バズった」のか?視覚的類似性が解く拡散の謎

Hidden Connections Through Visual Preferences Drive Image Diffusion

Predicting Image Diffusion in Social Networks through Visual Interest Similarity

Manato TAKANO, Tessai HAYAMA, Hu CUI

SNS上で投稿された画像の中で、なぜ一部は爆発的に拡散し、多くは限られた範囲にとどまるのか。本研究は、この現象を予測するための新しい枠組みを提案する。従来のフォロー関係を超えて、視覚的な好みの類似性に基づくユーザー間の潜在的なつながり(視覚的興味ネットワーク:VN)を捉えることで、拡散の代替経路を明らかにする。深層学習により画像から特徴を抽出し、ユーザーレベルの類似性ネットワークを構築することで、従来のソーシャルネットワークやメタデータ特徴と統合して拡散予測を行う。大規模Flickrデータセット(2005-2025年)を用いた実験により、提案モデルがベースライン手法を一貫して上回ることが示された。特にマクロF1において最大の改善が見られ、少数クラスの予測性能が向上した。25回の繰り返し実験による統計的検証により、これらの改善が有意(p < 0.05)であり、中程度から大きい効果量を持つことが確認された。傾向スコアマッチングによる因果推論により、VNが既存のフォロー関係を超えて拡散結果に対して独立した27-31%の因果効果を及ぼすことが確立された。さらに、ネットワーク分析により、VNは従来のネットワークよりも高いクラスタリング係数とより強いコミュニティ凝集性を示し、代替的な拡散経路としての役割が検証された。これらの知見は、マーケティングや推薦システムなどの実用的応用と、視覚中心型SNSにおける拡散ダイナミクスの理論的理解の両方に貢献する。

キーワード: 画像拡散、ソーシャルネットワーク、視覚的興味類似性、コミュニティ検出、ソーシャルメディア分析


英文概要(Abstract)

This study investigates why some image posts on social networking services (SNSs) spread widely while most remain confined to a limited audience. We propose a novel framework that integrates a Visual Interest Network (VN), which captures latent user connections based on shared visual preferences beyond conventional social ties. Using deep learning features from images and constructing user-level similarity networks, the framework augments traditional social and metadata features for diffusion prediction. Experiments on a large-scale Flickr dataset (2005-2025) demonstrate that the proposed model consistently outperforms baseline approaches, with the largest gains observed in Macro F1, indicating improved minority-class prediction. Statistical validation across 25 repeated experiments confirms these improvements are significant (p < 0.05) with medium-to-large effect sizes. Causal inference using propensity score matching establishes that the VN exerts an independent 27-31% causal effect on diffusion outcomes, beyond existing follower relationships. Network analysis further shows that VN exhibits higher clustering coefficients and stronger community coherence than conventional networks, validating its role as an alternative diffusion pathway. These findings contribute to both practical applications such as marketing and recommender systems, and to the theoretical understanding of diffusion dynamics in visual-centric SNSs.

Keywords: Image Diffusion, Social Networks, Visual Interest Similarity, Community Detection, Social Media Analytics

HAR研究がIEICE Transactions に掲載

AIが創る、本物そっくりの人間行動データを作る方法の開発

AI-Powered Data Synthesis for Better Activity Recognition

HAR-DCWGAN: Dual-Conditional Wasserstein GAN for Human Activity Recognition Data Synthesis

Shurui JIA, Hu CUI, Tessai HAYAMA

https://cir.nii.ac.jp/crid/1390025031466479104

人間行動認識(HAR)は、ヘルスケア、フィットネス、スマート環境において重要な技術となっているが、限られたラベル付きデータ、クラスの不均衡、クラス内変動性によって性能が制約されることが多い。これらの課題に対処するため、本研究では、活動ラベルと多次元統計特徴の両方を条件入力として統合する二重条件付きワッサースタインGANであるHAR-DCWGANを提案する。生成プロセスに二重の文脈情報を組み込むことで、本モデルは、リアリズム、多様性、クラス一貫性が向上した合成センサー信号を生成する。4つの公開HARデータセット(mHealth、MotionSense、PAMAP2、UCI-HAR)を用いた被験者独立条件下での評価により、HAR-DCWGANは従来のcWGANおよびベースライン手法を上回り、分類精度、頑健性、クラス内変動性の表現において有意な改善をもたらすことが実証された。これらの知見は、HAR-DCWGANが実用的な展開においてHAR性能を向上させる有望で信頼性の高いアプローチであることを確立するものである。

キーワード: 人間行動認識、合成データ生成、条件付きワッサースタインGAN、ウェアラブルセンサー、データ拡張、時系列解析


英文概要(Abstract)

Human Activity Recognition (HAR) has become a critical technology for healthcare, fitness, and smart environments, yet its performance is often constrained by limited labeled data, class imbalance, and intra-class variability. To address these challenges, we propose HAR-DCWGAN, a Dual-Conditional Wasserstein GAN that integrates both activity labels and multidimensional statistical features as conditional inputs. By incorporating dual contextual information into the generative process, our model produces synthetic sensor signals with improved realism, diversity, and class consistency. Evaluations across four publicly available HAR datasets (mHealth, MotionSense, PAMAP2, and UCI-HAR) under subject-independent conditions demonstrate that HAR-DCWGAN outperforms conventional cWGANs and baseline methods, yielding significant improvements in classification accuracy, robustness, and representation of intra-class variability. These findings establish HAR-DCWGAN as a promising and reliable approach to enhance HAR performance in practical deployments.

Keywords: Human Activity Recognition (HAR), Synthetic Data Generation, Conditional Wasserstein GAN, Wearable Sensors, Data Augmentation, Time-Series Analysis

WACV 2026 論文採択

Winter Conference on Applications of Computer Vision 2026(WACV 2026)において、以下の論文が 採択(Accepted) されました

H. Cui, W. Hua, R. Huang, S. Jia, T. Hayama,
“SasMamba: A Lightweight Structure-Aware Stride State Space Model for 3D Human Pose Estimation”,
in Proc. WACV 2026, Tucson, Arizona, USA, 2026

https://arxiv.org/abs/2511.08872

WACV は、コンピュータビジョン分野における主要な国際会議の一つであり、本採択は本研究の学術的意義と技術的貢献が国際的に評価された結果です
発表は 2026年3月、米国アリゾナ州ツーソンにて行われる予定です


Paper Overview

SasMamba proposes a lightweight and structure-aware state space model for 3D human pose estimation.
Unlike conventional transformer-based or heavy temporal models, the proposed method introduces a stride-aware state space formulation that efficiently captures long-range temporal dependencies while explicitly considering skeletal structure.

By integrating structural priors of the human body with a compact state space design, SasMamba achieves a favorable balance between accuracy, computational efficiency, and model size.
Experimental results demonstrate that the proposed approach maintains competitive performance on benchmark datasets while significantly reducing computational cost, making it suitable for real-time and resource-constrained applications.


論文概要

SasMamba は、3次元ヒト姿勢推定のための軽量かつ構造認識型の状態空間モデルを提案する研究です
従来のTransformer系モデルや大規模な時系列モデルとは異なり、本手法では Stride(時間間隔)を考慮した状態空間表現 を導入し、長時間の動作依存関係を効率的に捉えます

さらに、人体骨格の構造情報を明示的にモデルに組み込むことで、高い推定精度、低計算コスト、小規模モデル、を両立しています
実験結果から、SasMamba は既存手法と同等以上の性能を維持しつつ、リアルタイム処理や計算資源が限られた環境にも適用可能であることが示されました

Our paper published in IEEE ACCESS

Cross-Dataset Representation Learning for Unsupervised Deep Clustering in Human Activity Recognition

Authors: Tomoya Takatsu; Tessai Hayama; Hu Cui

https://ieeexplore.ieee.org/document/10971938

Abstract:

This study presents a new method to improve unsupervised deep clustering for Human Activity Recognition (HAR). Traditional methods often struggle to extract meaningful features from unlabeled data, resulting in poor classification accuracy. To solve this, the proposed method combines an autoencoder with models pre-trained on diverse HAR datasets. This approach helps extract more reliable and generalizable feature representations, which are then used for clustering.

The method was tested on three HAR datasets and significantly outperformed existing methods like k-means, HMM, and standard autoencoder-based clustering, achieving F1 scores between 0.441 and 0.781. Even with just 50 labeled samples for fine-tuning, the performance improved further, reaching F1 scores of 0.66 to 0.88. This demonstrates the method’s robustness and effectiveness in unsupervised settings. It also shows promise for broader use beyond HAR.

本研究は、人間行動認識(HAR)における教師なし深層クラスタリングの精度を向上させる新しい手法を提案しています。従来の手法では、ラベルなしデータから有用な特徴をうまく取り出せず、分類性能が低いという課題がありました。

そこで本研究では、さまざまなHARデータセットで事前学習されたモデルとオートエンコーダを組み合わせることで、より頑健で汎用的な特徴表現を抽出し、それを使ってクラスタリングを行います。

3つのHARデータセットで検証した結果、従来手法(k-meansやHMM、通常のオートエンコーダ)よりも高いF1スコア(0.441〜0.781)を達成。さらに、わずか50個のラベル付きデータで微調整した場合でもF1スコアが0.66〜0.88まで向上しました。

この手法は、ラベルの少ない状況でも高い認識精度を実現できることを示しており、HAR以外の分野にも応用可能な、実用性と拡張性の高い方法です。

HGMamba: New State-of-the-Art 3D Pose Estimation Model Accepted at IJCNN 2025

HGMamba: Enhancing 3D Human Pose Estimation with a HyperGCN-Mamba Network

Authors: HU CUI and Tessai Hayama
Conference: 2025 International Joint Conference on Neural Networks (IJCNN)
📄 arXiv:2504.06638


The paper introduces HGMamba, a novel network combining HyperGCN and Shuffle Mamba to enhance 3D human pose estimation from 2D pose data.
HyperGCN captures local joint dependencies via hypergraphs, while Shuffle Mamba scans global spatio-temporal patterns across all joints.
By fusing both, HGMamba models both local structure and global context effectively.
Tested on Human3.6M and MPI-INF-3DHP, HGMamba-B achieved state-of-the-art P1 errors: 38.65 mm and 14.33 mm, respectively.


本論文では、2D姿勢データからの3D姿勢推定を高精度化する新しいネットワーク「HGMamba」を提案しています。
HyperGCNは関節間の局所構造をハイパーグラフで捉え、Shuffle Mambaは全関節にわたる時空間的特徴を抽出します。
両者を融合することで、局所とグローバルの特徴を高精度にモデリングします。
Human3.6MおよびMPI-INF-3DHPで評価した結果、HGMamba-BはP1エラー38.65mm/14.33mmと最先端の精度を達成しました。

Our paper published in Neurocomputing

Our latest work has been published in Neurocomputing (Volume 637, 7 July 2025).

Title: Dstsa-Gcn: Advancing Skeleton-Based Gesture Recognition with Semantic-Aware Spatio-Temporal Topology Modeling
Authors: Hu Cui, Renjing Huang, Ruoyu Zhang, Tessai Hayama

https://doi.org/10.1016/j.neucom.2025.130066

Graph Convolutional Networks (GCNs) have great potential for recognizing human gestures from skeleton data. However, existing methods struggle to capture dynamic and multiscale patterns. Our proposed method, DSTSA-GCN, addresses this with:

  • GC-GC & GT-GC: New modules for modeling correlations across channels and time frames.

  • MS-TCN: A multi-scale convolutional module to handle temporal diversity.

  • Semantic-Aware Topology Modeling: Better understanding of gesture structure and motion.

Our method achieves state-of-the-art performance on key benchmarks like SHREC’17, DHG-14/28, and NTU-RGB+D.

Code Available: https://hucui2022.github.io/dstsa_gcn/

人間行動認識のための深層クラスタリングに関する研究を国際会議PRICAI(RLC)で発表

国際会議PRICAI(RLC)で、以下の研究成果を発表しました。

Title: Cross-Dataset Representation Learning for Unsupervised Deep Clustering in Human Activity Recognition

Authors: Tomoya Takatsu, Tessai Hayama and Hu Cui

The Pacific Rim International Conference on Artificial Intelligence – workshope,  (PRICAI)Representation Learning and Clustering (RLC’24), Nov. 19, 2024

概要:機械学習では大量のラベル付きデータを用意する必要があり,それには多大なコストを要する.そこで,人間に付与した加速度センサから行動を認識することを対象に,ラベルなしデータをもとに学習モデルを構築する方法を研究している.
本論文では,異なる人間行動データセットを活用したクロスデータセット表現学習を導入し,正解ラベルなしデータから人間行動を認識する深層クラスタリング手法について述べる.従来の深層クラスタリング手法では,オートエンコーダを用いて潜在表現を抽出していたが,行動を識別する上で十分な特徴を捉えることが困難であった.本研究では,異なるラベル付き人間行動データセットで学習したモデルをオートエンコーダに組み込み,そこで得られた潜在表現を特徴として活用することで,より行動の特徴を捉えた表現学習を実現した.評価実験では,3種類の人間行動データセットを用い,識別精度をもとに従来手法と比較することで,提案手法の有効性を明らかにした.