SNS情報拡散に関する研究がIEICE Transactionsに掲載

なぜあの画像は「バズった」のか?視覚的類似性が解く拡散の謎

Hidden Connections Through Visual Preferences Drive Image Diffusion

Predicting Image Diffusion in Social Networks through Visual Interest Similarity

Manato TAKANO, Tessai HAYAMA, Hu CUI

SNS上で投稿された画像の中で、なぜ一部は爆発的に拡散し、多くは限られた範囲にとどまるのか。本研究は、この現象を予測するための新しい枠組みを提案する。従来のフォロー関係を超えて、視覚的な好みの類似性に基づくユーザー間の潜在的なつながり(視覚的興味ネットワーク:VN)を捉えることで、拡散の代替経路を明らかにする。深層学習により画像から特徴を抽出し、ユーザーレベルの類似性ネットワークを構築することで、従来のソーシャルネットワークやメタデータ特徴と統合して拡散予測を行う。大規模Flickrデータセット(2005-2025年)を用いた実験により、提案モデルがベースライン手法を一貫して上回ることが示された。特にマクロF1において最大の改善が見られ、少数クラスの予測性能が向上した。25回の繰り返し実験による統計的検証により、これらの改善が有意(p < 0.05)であり、中程度から大きい効果量を持つことが確認された。傾向スコアマッチングによる因果推論により、VNが既存のフォロー関係を超えて拡散結果に対して独立した27-31%の因果効果を及ぼすことが確立された。さらに、ネットワーク分析により、VNは従来のネットワークよりも高いクラスタリング係数とより強いコミュニティ凝集性を示し、代替的な拡散経路としての役割が検証された。これらの知見は、マーケティングや推薦システムなどの実用的応用と、視覚中心型SNSにおける拡散ダイナミクスの理論的理解の両方に貢献する。

キーワード: 画像拡散、ソーシャルネットワーク、視覚的興味類似性、コミュニティ検出、ソーシャルメディア分析


英文概要(Abstract)

This study investigates why some image posts on social networking services (SNSs) spread widely while most remain confined to a limited audience. We propose a novel framework that integrates a Visual Interest Network (VN), which captures latent user connections based on shared visual preferences beyond conventional social ties. Using deep learning features from images and constructing user-level similarity networks, the framework augments traditional social and metadata features for diffusion prediction. Experiments on a large-scale Flickr dataset (2005-2025) demonstrate that the proposed model consistently outperforms baseline approaches, with the largest gains observed in Macro F1, indicating improved minority-class prediction. Statistical validation across 25 repeated experiments confirms these improvements are significant (p < 0.05) with medium-to-large effect sizes. Causal inference using propensity score matching establishes that the VN exerts an independent 27-31% causal effect on diffusion outcomes, beyond existing follower relationships. Network analysis further shows that VN exhibits higher clustering coefficients and stronger community coherence than conventional networks, validating its role as an alternative diffusion pathway. These findings contribute to both practical applications such as marketing and recommender systems, and to the theoretical understanding of diffusion dynamics in visual-centric SNSs.

Keywords: Image Diffusion, Social Networks, Visual Interest Similarity, Community Detection, Social Media Analytics

HAR研究がIEICE Transactions に掲載

AIが創る、本物そっくりの人間行動データを作る方法の開発

AI-Powered Data Synthesis for Better Activity Recognition

HAR-DCWGAN: Dual-Conditional Wasserstein GAN for Human Activity Recognition Data Synthesis

Shurui JIA, Hu CUI, Tessai HAYAMA

https://cir.nii.ac.jp/crid/1390025031466479104

人間行動認識(HAR)は、ヘルスケア、フィットネス、スマート環境において重要な技術となっているが、限られたラベル付きデータ、クラスの不均衡、クラス内変動性によって性能が制約されることが多い。これらの課題に対処するため、本研究では、活動ラベルと多次元統計特徴の両方を条件入力として統合する二重条件付きワッサースタインGANであるHAR-DCWGANを提案する。生成プロセスに二重の文脈情報を組み込むことで、本モデルは、リアリズム、多様性、クラス一貫性が向上した合成センサー信号を生成する。4つの公開HARデータセット(mHealth、MotionSense、PAMAP2、UCI-HAR)を用いた被験者独立条件下での評価により、HAR-DCWGANは従来のcWGANおよびベースライン手法を上回り、分類精度、頑健性、クラス内変動性の表現において有意な改善をもたらすことが実証された。これらの知見は、HAR-DCWGANが実用的な展開においてHAR性能を向上させる有望で信頼性の高いアプローチであることを確立するものである。

キーワード: 人間行動認識、合成データ生成、条件付きワッサースタインGAN、ウェアラブルセンサー、データ拡張、時系列解析


英文概要(Abstract)

Human Activity Recognition (HAR) has become a critical technology for healthcare, fitness, and smart environments, yet its performance is often constrained by limited labeled data, class imbalance, and intra-class variability. To address these challenges, we propose HAR-DCWGAN, a Dual-Conditional Wasserstein GAN that integrates both activity labels and multidimensional statistical features as conditional inputs. By incorporating dual contextual information into the generative process, our model produces synthetic sensor signals with improved realism, diversity, and class consistency. Evaluations across four publicly available HAR datasets (mHealth, MotionSense, PAMAP2, and UCI-HAR) under subject-independent conditions demonstrate that HAR-DCWGAN outperforms conventional cWGANs and baseline methods, yielding significant improvements in classification accuracy, robustness, and representation of intra-class variability. These findings establish HAR-DCWGAN as a promising and reliable approach to enhance HAR performance in practical deployments.

Keywords: Human Activity Recognition (HAR), Synthetic Data Generation, Conditional Wasserstein GAN, Wearable Sensors, Data Augmentation, Time-Series Analysis

WACV 2026 論文採択

Winter Conference on Applications of Computer Vision 2026(WACV 2026)において、以下の論文が 採択(Accepted) されました

H. Cui, W. Hua, R. Huang, S. Jia, T. Hayama,
“SasMamba: A Lightweight Structure-Aware Stride State Space Model for 3D Human Pose Estimation”,
in Proc. WACV 2026, Tucson, Arizona, USA, 2026

https://arxiv.org/abs/2511.08872

WACV は、コンピュータビジョン分野における主要な国際会議の一つであり、本採択は本研究の学術的意義と技術的貢献が国際的に評価された結果です
発表は 2026年3月、米国アリゾナ州ツーソンにて行われる予定です


Paper Overview

SasMamba proposes a lightweight and structure-aware state space model for 3D human pose estimation.
Unlike conventional transformer-based or heavy temporal models, the proposed method introduces a stride-aware state space formulation that efficiently captures long-range temporal dependencies while explicitly considering skeletal structure.

By integrating structural priors of the human body with a compact state space design, SasMamba achieves a favorable balance between accuracy, computational efficiency, and model size.
Experimental results demonstrate that the proposed approach maintains competitive performance on benchmark datasets while significantly reducing computational cost, making it suitable for real-time and resource-constrained applications.


論文概要

SasMamba は、3次元ヒト姿勢推定のための軽量かつ構造認識型の状態空間モデルを提案する研究です
従来のTransformer系モデルや大規模な時系列モデルとは異なり、本手法では Stride(時間間隔)を考慮した状態空間表現 を導入し、長時間の動作依存関係を効率的に捉えます

さらに、人体骨格の構造情報を明示的にモデルに組み込むことで、高い推定精度、低計算コスト、小規模モデル、を両立しています
実験結果から、SasMamba は既存手法と同等以上の性能を維持しつつ、リアルタイム処理や計算資源が限られた環境にも適用可能であることが示されました